블로그

  • 드디어 꺼낸 C9.25 – 첫날 밤 스크래치부터 별 쪼개기까지 솔직 후기

    C9.25를 드디어 꺼냈다. 새벽 1시 반부터 5시까지, 혁신도시 옥상에서 첫 실전 관측을 마쳤다. 설레기도 했지만 첫날부터 스크래치가 났다. 솔직하게 다 적는다.


    관측 조건 – 오늘 하늘은 진짜 좋았다

    구름 거의 없음. 공기 퀄리티도 체감상 괜찮았다. 수치를 따로 확인하진 않았지만, 별이 선명하게 보이는 걸로 충분히 알 수 있었다. 이런 날 망원경을 안 꺼내면 그게 더 이상한 거다.


    첫 번째 난관 – 정렬이 계속 틀렸던 진짜 이유

    8인치 반사와 C9.25는 경통이 충분히 식어야 상이 안정된다. 그래서 먼저 Askar 103APO 굴절로 관측을 시작하며 정렬을 잡았다.

    초반에 정렬 때문에 꽤 고생했다. 대상을 찾아가는 게 자꾸 어긋났고, 이것저것 만져봤는데 결국 원인은 단순했다.

    CRUX 170HD를 경위대 모드로 쓸 때 수평이 제대로 안 잡혀 있었다.

    경위축 모터가 수직으로 정확히 서 있지 않으면 추적 자체가 흔들린다. 망원경을 일단 해체하고 처음부터 다시 수평을 잡았다. 그러고 나서야 추적이 제대로 됐다. 다음부터는 설치 직후 수평 확인을 루틴으로 넣어야겠다.


    굴절 먼저, 반사는 냉각 대기 – 순서가 있다

    8인치 반사와 C9.25는 경통이 충분히 식어야 상이 안정된다. 그래서 먼저 Askar 103APO 굴절로 관측을 시작했다.

    아크투루스로 정렬을 잡고, M13(헤르쿨레스 구상성단)으로 이동했다. M13을 겨우 잡는 데 성공한 뒤, 이제 충분히 식었을 8인치로 옮겨서 M13을 다시 관측했다. 아이피스는 Celestron X-Cel 25mm, 그리고 Baader 모피우스17.5mm를 사용했다. 뭉글뭉글한 별 무리가 보이는 걸 확인할 수 있었다.


    드디어 C9.25 첫 등판 – 그리고 첫날 스크래치

    기다리고 기다리던 C9.25를 드디어 설치했다.

    그런데 시작부터 문제가 생겼다.

    경통이 수직 방향을 볼 때, 경통 손잡이와 CRUX 기계부가 간섭이 발생했다. 처음엔 그냥 지나쳤다. 나중에야 원인을 파악하고 경통 위치를 조절했는데, 이미 기계부 돌출 부분 도장이 꽤 벗겨져 있었다. C9.25 손잡이에도 스크래치가 생겼다.

    첫날 러닝커브다. 어쩔 수 없다. 다음부터는 경통 위치 먼저 확인하고 설치하는 걸로.


    C9.25 실전 관측 – 별이 진짜로 쪼개졌다

    설치 후 M13을 다시 봤다. 아이피스 순서는 이랬다.

    • Tele Vue Plössl 25mm – 가장 먼저. 확실히 8인치보다 선명했다.
    • Baader 모피우스 17.5mm – 배율이 올라가면서 별들이 옆으로 선명하게 분리되는 느낌을 처음으로 제대로 느꼈다.
    • Baader Hyperion 13mm – 중간 배율 확인.
    • Tele Vue Plössl 11mm – 고배율 도전.

    11mm에서는 초점 잡기가 쉽지 않았다. 눈이 렌즈에 적응하는 시간도 필요하고, 눈과 아이피스 사이 거리도 중요하다는 걸 몸으로 배웠다. 그래도 순간순간 초점이 딱 맞을 때, M13의 별들이 여러 개로 분리되어 보이는 것을 확인할 수 있었다.

    오늘의 하이라이트였다. ( 모피우스 17.5와 텔레뷔11 이 오늘 최고였다!)


    보너스 – Leo 80으로 M3 사냥 성공

    철수하려다가 마지막으로 하나 더 했다.

    Leo 80 경통 위에 니콘 카메라를 올린 구성이다. 나름 아이디어 제품이다. 가이드 촬영이라기보다는 레오80으로 광시야 광측도 하면서, 사진 기록 용도다. 아이피스는 Sky-Watcher 번들 25mm를 썼다. 경통과 아이피스 모두 가벼운 구성이라 Leo 80으 덜 경고한 접안부 구성에 막게 구성한 것이다. 무게 경량화!

    이 구성으로 M3(구상성단)을 오늘 처음 발견했다. 화려하게 보인 건 아니지만, 찾아냈다는 것 자체가 의미 있다. Leo 80으로도 M3 사냥이 된다.

    오늘의 관측 결과물인 아크투루스 사진과 M3 사진은 아래에 첨부한다.

    처음이 아크투르스 (위쪽에 흐릿한게 계속 보이던데, 갤럭시 인지 공부할 필요)

    두번쩨가 M13이다 ( 편집 기술이 지금의 내 수준이지만 점점 나아지걸이다!)


    오늘 관측 총평

    항목내용
    관측지혁신도시 옥상
    시간새벽 1:30 ~ 5:00
    장비Askar 103APO / 8인치 반사 / C9.25 / Leo 80
    주요 대상M13, M3, 아크투루스
    오늘의 성과C9.25 첫 관측 + 11mm로 M13 별 분리 성공
    오늘의 실수C9.25 첫 설치 시 간섭으로 스크래치 발생

    C9.25, 기대 이상이다. 11mm로 별이 쪼개지는 걸 눈으로 확인한 날이다. 스크래치는 아프지만, 그게 첫날이라는 증거이기도 하다.

    우주를 너에게 줄께

  • 블로그, 좋은 글쓰는법

    구글 1페이지에 노출되는 좋은 워드프레스 블로그 글쓰기 가이드

    워드프레스 블로그를 시작했다면 가장 먼저 익혀야 할 것이 바로 SEO(검색 엔진 최적화)입니다. 그중에서도 방문자와 구글 검색 로봇 모두를 만족시키는 가장 기본적이면서 강력한 무기가 바로 ‘H태그(Heading Tag)의 적절한 활용’입니다.

    H태그란 무엇이며, 왜 중요할까?

    H태그는 글의 제목과 소제목을 지정해 주는 HTML 코드입니다. 단순히 글씨 크기를 키우는 디자인 요소가 아니라, 글의 뼈대와 목차를 구성하는 핵심적인 역할을 합니다.

    구글의 검색 봇은 사람처럼 글을 처음부터 끝까지 읽으며 문맥을 파악하지 못합니다. 대신 문서에 포함된 H2, H3 태그의 계층 구조를 훑어보고 “이 글은 어떤 대주제 아래에 어떤 소주제들을 깊이 있게 다루고 있구나”라고 판단합니다. 구조가 논리적일수록 검색 결과 상위에 노출될 확률이 크게 높아집니다.

    체류 시간을 늘려주는 가독성의 핵심

    스마트폰으로 긴 글을 읽는 현대인들은 텍스트를 정독하기보다 스크롤을 내리며 굵은 소제목들을 먼저 스캔합니다. 내용이 시각적으로 잘 나뉘어 있으면 원하는 정보를 쉽게 찾을 수 있어 이탈률이 줄어들고 체류 시간이 길어집니다. 체류 시간이 긴 문서는 구글이 ‘좋은 문서’로 인식하는 아주 중요한 지표입니다.

    올바른 H태그 계층 구조 이해하기

    글을 한 권의 책이라고 생각하면 H태그의 계층 구조를 쉽게 이해할 수 있습니다. 건너뛰거나 순서를 뒤섞지 않는 것이 핵심입니다.

    H1 태그: 블로그 글의 단 하나뿐인 메인 제목

    워드프레스에서 글을 작성할 때 가장 상단에 입력하는 ‘제목’이 자동으로 H1 태그로 설정됩니다. 책의 이름과 같으므로, 하나의 포스팅(페이지)에는 H1 태그가 반드시 1개만 있어야 합니다. 본문 안에서는 절대 H1을 사용하지 마세요.

    H2 태그: 글의 흐름을 나누는 대주제

    책의 큰 챕터에 해당합니다. 글의 주요 내용이 전환될 때마다 H2 태그를 사용하여 문단을 나누어 줍니다. H2 태그에 핵심 키워드를 자연스럽게 포함하면 SEO에 매우 유리합니다.

    H3 태그: 대주제를 뒷받침하는 세부 소주제

    H2 챕터 안에서 내용을 더 세부적으로 나눌 때 사용합니다. 하나의 H2 아래에 여러 개의 H3가 포함되는 구조가 가장 이상적입니다.

    워드프레스 실전 예시: 논리적인 목차 구성법

    글을 쓰기 전에 먼저 H2와 H3로 뼈대를 잡아두고 살을 붙여나가는 방식이 좋습니다. 예를 들어, 로봇 공학 입문자를 위한 가이드 글을 쓴다고 가정해 보겠습니다.

    올바른 계층 구조 예시 (권장)

    • (H1) 초보자를 위한 ROS 2 기반 자율주행 로봇 입문 가이드(워드프레스 제목 칸)
      • (H2) 1. 로봇 운영체제(ROS 2)란 무엇인가?
        • (H3) ROS 1과 ROS 2의 핵심 차이점
        • (H3) 초보자에게 ROS 2가 필수적인 이유
      • (H2) 2. 자율주행 로봇 제작을 위한 필수 하드웨어
        • (H3) 개발용 프로토타입 플랫폼 선택하는 법
        • (H3) 모터 제어와 센서 데이터 처리의 이해

    피해야 할 잘못된 사용법 (주의)

    워드프레스 에디터에서 단순히 글씨 크기나 굵기가 마음에 든다고 해서 H2 대제목을 건너뛰고 갑자기 H3, H4를 본문 중간에 섞어 쓰면 안 됩니다. 구글 검색 봇이 문서의 구조가 무너졌다고 판단하여 SEO 점수에 악영향을 미칩니다.

    워드프레스 구텐베르크 에디터 활용 팁

    워드프레스 기본 에디터인 구텐베르크(블록 에디터)에서는 마우스를 쓰지 않고도 단축키로 빠르게 H태그를 적용할 수 있습니다.

    마크다운 단축키로 빠르게 작성하기

    빈 블록에서 샵 기호(#)를 사용하면 글을 쓰면서 즉시 제목 태그를 적용할 수 있어 글쓰기 속도가 훨씬 빨라집니다.

    • ## 입력 후 스페이스바: H2 태그 (제목2) 생성
    • ### 입력 후 스페이스바: H3 태그 (제목3) 생성
  • Why Does Focal Length Magnify? — A Dentist Figures Out Lens Physics with AI — From Scratch

    This is a record of a dentist’s journey to understand the fundamental principles of telephoto lenses. From focal length and image circles to angle of view, I stripped it all down to the basics.


    I Thought Lenses Were Just Magnifying Glasses

    As I started astrophotography, I began using telephoto lenses.

    Naturally, a question arose: why does a longer focal length make objects look larger?

    My initial assumption was simple:

    “Light converges to a single point like a magnifying glass, flips upside down as it crosses over, and the sensor sits somewhere behind that point — right?”

    Wrong. It took me an hour of debating with an AI to break this misconception.


    The True Definition of Focal Length: Understanding via the Sun

    If you hold a convex lens under sunlight, it burns a hole in paper. The distance from the lens to that burning spot is the focal length (f).

    Because the Sun is so far away, its rays enter the lens almost perfectly parallel. Parallel rays converge into practically a single point — small enough to burn paper, though the Sun does occupy about 0.5° of angle in the sky. In a 500mm lens, this happens approximately 500mm behind the lens.

    This is a fixed value determined at the factory.


    Real-World Objects Do Not Converge to a Single Point

    This is where I got stuck.

    Unlike the Sun, light from everyday objects — reflective sources — behaves differently.

    Light from Point A on an object → passes through the lens → lands on Position A’ on the sensor. Light from Point B on an object → passes through the lens → lands on Position B’ on the sensor.

    Because light enters from various angles, it forms a plane at the image distance, not a single point.

    A lens is not a device that gathers light into a point.

    A lens maps incoming ray angles to positions on an image plane.

    This one sentence broke my misconception completely.


    Where is the Sensor? — Warning: Never Aim at the Sun

    The sensor is placed on the image plane — the plane where a sharp image forms.

    For a subject at infinity (like the Sun or distant stars), that plane sits exactly at the focal length f. For closer subjects, the image plane shifts further back, following the thin lens equation:1f=1do+1di\frac{1}{f} = \frac{1}{d_o} + \frac{1}{d_i}f1​=do​1​+di​1​

    dod_odo​: distance to the subject. did_idi​: distance to the image plane (where the sensor sits).

    This is why macro lenses extend outward when focusing up close — the sensor needs to move further from the lens to stay on the image plane.

    I also realized something here on my own:

    “If I aim a camera at the Sun, the sensor will melt.”

    This is a real danger. In the film era, sunlight burned holes in shutters. Today, it permanently destroys pixels. The risk increases when the focal length is long and the aperture is wide — specifically, when the f-number (f/D) is small, energy density on the sensor is highest. A longer focal length with the same aperture diameter concentrates more energy and is more dangerous. But two lenses with the same f-number carry similar risk, regardless of focal length.

    [Image comparing direct sunlight vs. reflected light paths through a camera lens]


    The Image Circle: A Fixed Property of the Lens

    I used to think the image circle changed based on the subject.

    Wrong again.

    The image circle — the maximum area a lens can project — is a fixed value determined by the lens design. Whether you photograph a mountain or a marble, the circle stays the same. What changes is what fits inside that circle.

    This is why Full-Frame and APS-C lenses exist separately. When the sensor is larger than the image circle, the edges go dark. That is called vignetting.


    Finally — Why Long Focal Lengths Narrow the View and Magnify

    Now the core physics.x=ftan(θ)x = f \cdot \tan(\theta)x=f⋅tan(θ)

    xxx: Distance from the sensor center to where the light lands. fff: Focal length. θ\thetaθ: The angle of the incoming light.

    Light entering along the optical axis lands at the center of the sensor. Light entering at an angle lands away from the center — the greater the angle, the further from center it lands.

    When fff increases, the same angle θ\thetaθ is projected further from the sensor center.

    But the sensor size is fixed.

    So the maximum angle that can fit onto the sensor gets smaller. This is why the angle of view narrows.

    And that narrow slice of the world is now stretched across the entire sensor. This is why the subject appears magnified.

    Magnification is not caused by “zooming in.” It is caused by the fact that the same angular information is projected over a larger distance (f), while the sensor size remains fixed.

    In one sentence:

    A telephoto lens does not magnify objects. It enlarges angular information onto a fixed sensor.


    Summary

    ConceptCore Truth
    Focal LengthDistance where parallel rays converge. A fixed lens property.
    Sensor PositionAlways at the image plane — which equals f only for subjects at infinity.
    Real-World SubjectDoes not form a point. Forms an image on a plane.
    Image CircleFixed by lens design. Independent of the subject.
    Magnification PrincipleNarrower angles projected across the same sensor area.

    One thing you can do today. Take a magnifying glass outside and find the point where sunlight burns the tightest spot on paper. That distance is the focal length. Physics is best understood through the fingertips.

    Giving you the Universe,

  • 잿빛 하늘에서 딥스카이를 사냥하다 – 도심 옥상 관측 일지 (M44, 목성, M13)

    까만 하늘이 없어도 딥스카이를 사냥할 수 있다. 2026년 4월 18일 밤, 원주 도심 아파트 옥상에서 80mm 굴절과 130mm 반사로 M44, 목성, M13을 직접 찾아봤다.


    그날 밤의 조건 – 솔직히 말하면 별로였다

    22시 30분, 세팅 시작.

    눈으로 보기엔 구름이 없는 것 같았지만, 경험상 이런 날은 상층에 얇은 구름이 끼어 있는 경우가 많다. 실제로 관측 내내 대비(contrast)가 생각보다 약했고, 나중에 돌아보면 그게 원인이었을 가능성이 높다.

    광해는 말할 것도 없다. 아파트 조명이 사방에서 올라오는 전형적인 도심 옥상이다.

    장비도 풀 세팅은 아니었다.

    • 80mm 굴절 (레오파디 계열, 경량)
    • 130mm 반사 (Astromaster 130, 초점거리 650mm)
    • 아이피스 25mm
    • 마운트: CRUX 170HD 하모닉 드라이브 — 단, 플레이트 고정부 고장 상태

    마운트 고장 때문에 무거운 장비는 올릴 수 없었다. 경량 구성으로 타협했다.


    첫 번째 사냥 – M44 프레세페 성단

    M44는 게자리에 있는 산개성단이다. 맨눈으로도 뿌옇게 보일 만큼 밝은 성단이라고 하는데, 도심에서는 그게 잘 안 된다.

    처음엔 80mm 굴절로 위치를 찾으려 했는데, 한참 헤맸다. 어둡고 희미한 별무리 패턴을 스타호핑으로 겨우 잡아냈다.

    80mm로 본 M44는 솔직히 드라마틱하지 않았다. 또렷한 별빛보다는 흐릿한 별흔(星痕) 느낌이 강했다. “이게 맞나?” 싶을 정도.

    그래서 130mm 반사로 바꿨다.

    확실히 달랐다. 별 하나하나의 분해가 좀 더 또렷해졌고, 성단의 구조가 눈에 들어오기 시작했다. 완벽하진 않았지만, “찾아냈다”는 느낌은 충분히 왔다. 아래는 실제 촬영하지 못해서 검색해서 참고 자료로 보여 준다. 실제론 저 가운데 별 무리들희미만 희미하게 보였다. 즉 이 사진보다는 감동이 떨어진다.

    [

    http://www.messier-objects.com/wp-content/uploads/2015/05/Praesepe-Asellus-Australis-and-Asellus-Borealis.jpg

    다음엔 같은 대상을 심야 2~3시대에 다시 보고 싶다. 광해가 조금 덜한 시간대와 비교하면 조건의 차이를 직접 확인할 수 있을 것 같다.


    두 번째 사냥 – 목성

    남서쪽 고도가 정점을 찍고 낮아지기 시작하는 부위에서 목성을 찾았다.

    캐나다 랭리에서 처음 봤을 때만큼의 감동은 아니었다. 도심 배경광이 밝아서, 4개의 달은 확인했지만 줄무늬 같은 세부 구조는 거의 보이지 않았다.

    그래도 “찾았다”는 순간의 감각은 여전히 좋다. 아는 것과 직접 확인하는 것은 다르다.

    목성은 고도가 높아지는 시간대에 다시 시도할 예정이다. 가능하면 늦은 밤, 남중(南中) 근처에서.


    세 번째 사냥 – M13, 오늘은 실패

    M13은 헤라클레스자리의 구상성단이다. 북반구 하늘에서 가장 유명한 구상성단 중 하나인데, 이틀 전 새벽 3시에 Askar 103과 8se로 희미한 솜뭉치 형태로 겨우 확인했던 대상이다.

    오늘은 찾지 못했다.

    아마도 두 가지가 겹쳤을 것이다.

    1. 시간대 — 이틀 전은 새벽 3시, 오늘은 밤 23시. M13의 고도와 배경광 밝기가 다르다.
    2. 상층 구름 — 눈에 잘 안 보이는 얇은 구름이 투명도를 낮췄을 가능성.

    실패는 실패다. 하지만 “왜 실패했는지”를 기록해두면 다음 관측의 조건이 된다.

    M13은 새벽 시간대, 배경광이 낮은 조건에서 다시 시도한다.


    오늘 관측에서 배운 것

    장비보다 조건이 먼저다.

    80mm와 130mm의 차이는 분명히 있었다. 그런데 그보다 더 큰 변수는 시간대, 고도, 광해, 구름이었다. 이틀 전 새벽 3시의 M13이 오늘 밤 11시보다 훨씬 잘 보였던 건 망원경 차이가 아니라 조건 차이였다.

    앞으로 같은 대상을 다른 시간대에 반복 관측하면서 이걸 계속 검증해볼 생각이다.

    그리고 마운트 플레이트 고정부 나사는 고장이다. 알리에서 산게 내구성이 약해서 무게을 감당하다 보니 나사산이 안에서 뭉개져는 꿈적도 안했다. 플라이어로 잡아 돌리다 보니 나사가 부러졌다. 약 5mm두께의 알루미늄 나사가…


    잿빛 하늘에서 별을 찾는 이유

    나는 까만 하늘이 아닌 잿빛 하늘에서 딥스카이를 사냥한다.

    목적은 예쁜 사진이나 멋진 장면을 소비하는 게 아니다. 찾아내고 발견하는 행위 그 자체다.

    지구에서 나침반으로 방향을 잡듯, 별을 통해 내가 지금 우주 안의 어디에 있는지를 감각으로 확인한다. 흐릿한 솜뭉치 하나를 찾아냈을 때, 나는 그 빛이 수만 광년 전에 출발했다는 걸 잠깐 생각한다.

    그 순간이 좋다.

    오늘 당장 할 수 있는 것: 맑은 날 밤 10시 이후, 지금 가진 망원경으로 M44 한 번만 찾아보자. 80mm로도 된다. 찾는 과정이 전부다.

    오늘도 우주를 너의 품에

  • Beginner Astronomy Observing Briefing, How I Use Meteoblue and Jarvis to Read the Urban Night Sky

    As a beginner in astronomy, I built an automated observing briefing system using Meteoblue and Jarvis to read the urban night sky. The goal is simple: I want to know if tonight is worth going out, what time is best, and what targets are realistic before I carry my gear to the rooftop.

    Why I Needed This System

    I want astronomy to become more than a one-off hobby. I want to observe, experiment, record what I learn, and eventually turn those records into useful posts for other beginners like me.

    The problem is that real life gets in the way. After work, I am tired. I do not want to check multiple weather and astronomy sites every evening and still end up wondering, “Was tonight actually worth it?”

    So I decided to make Jarvis do that part for me.

    I First Treated It Like a Weather Report, and That Was a Mistake

    At first, the idea sounded simple.
    Just check the weather and tell me whether tonight is good for observing.

    That turned out to be wrong.

    For astronomy, especially deep-sky observing, a normal weather forecast is not enough. No rain and light wind do not automatically mean a good observing night. On the other hand, a sky that looks fine at first glance can still be ruined by high cloud.

    That is where Meteoblue Astronomy became important.

    Meteoblue Astronomy shows data in a way that feels much closer to how an observer actually thinks. The first things I look at are these:

    • low cloud
    • mid cloud
    • high cloud
    • seeing
    • arc sec
    • jet stream
    • humidity
    • moon phase

    The biggest lesson was very simple.

    For deep-sky observing, cloud is the first filter.

    That does not mean transparency and seeing do not matter. They do. But if cloud is there, especially high cloud, the session can be over before it even starts. High cloud is tricky because it can leave the sky looking “usable” while quietly killing contrast.

    So for deep-sky observing, I now check cloud layers first and only then move on to the rest.

    How I Redesigned the Briefing System

    Instead of asking Jarvis for a general weather-style report, I changed the system into something more practical: a tool that interprets Meteoblue Astronomy and finds the actual observing window.

    That means the key question is no longer, “Is tonight good?”

    The key questions are these:

    • What is the real observing window tonight?
    • How long does that window last?
    • Is it good enough for deep-sky observing?
    • Which telescope should I use?

    That led to a much better decision flow.

    The New Logic

    1. Check low, mid, and high cloud first
    2. Find the actual cloud window
    3. Check how long that window lasts
    4. Then evaluate seeing, arc sec, jet stream, and humidity
    5. Finally, recommend targets and gear for that window

    In short:

    Do not judge the whole night as one block. Find the actual observing window first.

    The Briefing Format I Built

    The system does not just look at tonight. Meteoblue gives roughly 48 hours of useful data, so I decided the briefing should include both tonight and tomorrow night.

    That matters more than I expected. Even if tonight is poor, tomorrow may already look promising enough for me to prepare gear and schedule ahead.

    [Image insert: Meteoblue Astronomy screen showing low, mid, high cloud and seeing]

    This is the general structure I gave Jarvis.

    # Urban Deep-Sky Hunt - Daily Briefing
    
    - Date:
    - Location: Wonju Innovation City rooftop
    
    ## Tonight
    - Summary:
    - Main observing window:
    - Go / Conditional Go / Not Recommended
    - Deep-sky suitability:
    - Recommended gear tonight:
    
    ## Tomorrow Night Preview
    - Summary:
    - Expected observing window:
    - Forecast confidence:
    - Recommended gear tomorrow night:
    
    ## Window Analysis
    - Tonight primary window:
    - Tonight secondary window:
    - Tomorrow primary expected window:
    - Window length assessment:
    - Main risks:
    
    ## Technical Data Summary
    - Low cloud:
    - Mid cloud:
    - High cloud:
    - Seeing 1:
    - Seeing 2:
    - Arc Sec.:
    - Jet Stream:
    - Bad Layers:
    - Temp:
    - Relative Humidity:
    - Dew risk:
    - Moon impact:
    
    ## Recommended Targets
    1.
    - Target:
    - Type:
    - Why it fits:
    - Recommended gear:

    This format helped immediately. It made the system more actionable, and it also created clean environmental data that I can later paste into my observing log.

    I Also Built a Learning Card for Each Target

    Once I started getting actual observing briefings, I ran into another problem.

    I would get a target recommendation like M44, and then I would immediately think, “Okay, but what exactly should I be looking for?”

    If I ask for a random explanation every time, the system becomes messy. So I made a separate format called a Target Learning Card.

    The workflow now looks like this:

    1. Jarvis gives me the daily briefing
    2. I choose a target
    3. I ask something like “Provide M44 reference”
    4. Jarvis replies in the same fixed format every time

    That was the right call. The briefing stays short and practical, but if I want to study a target before heading out, I can do that too.

    [Image insert: Example of a target learning card]

    This is the structure I settled on.

    # Urban Deep-Sky Hunt - Target Learning Card
    
    - Target:
    - Type:
    - Best season / observing period:
    - Recommendation for tonight:
    
    ## 1. What is it
    - Identity:
    - What kind of object it is:
    - Distance / size / brightness:
    - Constellation:
    
    ## 2. Why it matters
    - Why it is famous:
    - Why it is beginner-friendly:
    - Whether it works under urban skies:
    
    ## 3. Where to find it
    - Position in the sky:
    - Reference stars / constellations:
    - Star-hopping difficulty:
    
    ## 4. What to look for tonight
    - What to expect with the naked eye / finder:
    - What to expect at low power:
    - What to expect at medium power:
    - Main visual cue for tonight’s conditions:
    
    ## 7. Recommended gear for tonight
    - Telescope:
    - Eyepiece:
    - Magnification direction:
    - Imaging setup if relevant:

    I like this structure a lot. It works before observing, it works for notes, and it can easily become blog material later.

    The Most Practical Lesson I Learned

    The biggest lesson was not that I needed more data.
    It was that I needed a better order of judgment.

    At first, I thought more data automatically meant better decisions. That was not true.

    For deep-sky observing, I now think in this order:

    • first, cloud
    • second, transparency-like sky quality
    • third, moon impact
    • fourth, dew risk
    • fifth, seeing

    That order might change for planetary observing.
    But for deep-sky work, cloud comes first.

    Once I taught Jarvis to think in that order, the system became much more useful. At the very least, it became much better at answering the one question I actually care about before going outside:

    Should I go out tonight or not?

    Final Thoughts

    This system is still evolving. Tomorrow’s 6 PM briefing may reveal new things to improve. But the direction is now clear.

    • Meteoblue Astronomy is the main reference
    • General weather data is only a backup
    • The real question is not whether the night is “good”
    • The real question is what the observing window actually is
    • Targets and gear should be recommended together
    • And if needed, each target should have its own learning card

    That already makes astronomy feel much less overwhelming.

    If you are a beginner, here is one simple thing you can do tonight:

    Before checking anything else, look at low, mid, and high cloud on Meteoblue Astronomy first.

    That is where I started, and now Jarvis starts there too.

    Today, Jarvis evolves again.

    Now I’m heading out to hunt M44.

  • 초보 천체관측자를 위한 자동 관측 브리핑 만들기, Meteoblue와 자비스로 도심 하늘 읽는 법

    천체관측 초보인 내가 Meteoblue와 자비스를 이용해 도심 하늘을 읽는 자동 관측 브리핑 시스템을 만들었다. 목적은 단순하다. 오늘 밤 나갈 만한지, 몇 시가 좋은지, 뭘 보면 좋을지를 매일 자동으로 받기 위해서다.

    왜 이런 시스템이 필요했나

    나는 천체관측을 취미로 더 깊게 해보고 싶었다. 단순히 한 번 보고 끝나는 취미가 아니라, 실험하고 기록하고, 나중에는 블로그나 홈페이지에 남겨서 다른 초보자에게도 도움이 되는 흐름으로 만들고 싶었다.

    문제는 현실이었다.
    퇴근하고 나면 피곤하다. 하늘이 괜찮은지 매번 여러 사이트를 뒤져야 한다. 그리고 막상 나가도 “오늘은 진짜 나갈 만한 날이었나?”가 늘 애매했다.

    이걸 줄이고 싶었다.
    그래서 자비스에게 매일 저녁 관측 브리핑을 자동으로 만들어달라고 했다.

    처음에는 날씨 브리핑처럼 접근했는데, 그건 틀렸다

    처음 생각은 단순했다.
    날씨를 보고 오늘 밤 관측 가능성을 알려주면 되지 않을까 싶었다.

    그런데 금방 문제가 드러났다.

    천체관측, 특히 딥스카이는 일반 날씨 앱식 판단으로는 부족하다.
    비가 안 오고 바람이 약하다고 해서 좋은 밤이 아니다. 반대로 겉보기엔 괜찮아 보여도 상층운이 끼면 딥스카이는 바로 망한다.

    이때 핵심이 된 게 Meteoblue Astronomy였다.

    Meteoblue Astronomy는 일반 날씨보다 천체관측자 관점에 더 가까운 데이터를 보여준다. 내가 제일 먼저 보는 것도 바로 이 부분이다.

    • low cloud
    • mid cloud
    • high cloud
    • seeing
    • arc sec
    • jet stream
    • humidity
    • moon phase

    여기서 깨달은 건 간단했다.

    딥스카이 관측에서 1순위는 cloud다.

    투명도나 시상이 중요하지 않다는 뜻이 아니다.
    하지만 구름이 있으면 아예 못 본다. 특히 high cloud도 만만하지 않다. 하늘이 얼핏 맑아 보여도 상층 운막이 별빛 대비를 다 죽여버린다.

    즉 딥스카이 기준으로는 먼저 구름층 데이터를 보고, 그 다음에 seeing이나 다른 데이터를 봐야 한다.

    그래서 브리핑 시스템을 이렇게 다시 설계했다

    나는 자비스에게 일반 날씨 요약이 아니라, Meteoblue Astronomy를 해독해서 관측 가능한 시간 창을 찾아주는 시스템을 만들게 했다.

    핵심은 “오늘 밤이 좋다/나쁘다” 같은 두리뭉실한 말이 아니다.

    핵심은 이것이다.

    • 오늘 몇 시부터 몇 시까지가 실제 관측 창인지
    • 그 창이 짧은지 긴지
    • 그 시간에 딥스카이를 노려도 되는지
    • 어떤 장비가 더 맞는지

    이렇게 바꿨다.

    브리핑 판단 순서

    1. low / mid / high cloud를 시간대별로 먼저 본다
    2. 구름이 비는 시간 창이 있는지 찾는다
    3. 그 창이 몇 시간짜리인지 본다
    4. 그 다음 seeing, arc sec, jet stream, humidity를 본다
    5. 마지막으로 그 시간대에 맞는 대상과 장비를 추천한다

    한 줄로 요약하면 이렇다.

    “오늘 밤 전체”를 뭉뚱그리지 말고, “실제 관측 가능한 시간 창”을 먼저 뽑는다.

    실제로 만든 브리핑 포맷

    브리핑은 오늘 밤만 보지 않는다. Meteoblue가 대략 48시간 데이터를 보여주기 때문에, 오늘 밤과 내일 밤 예고를 함께 본다. 이게 꽤 중요하다. 오늘 밤이 별로여도 내일 밤이 좋다면 장비 준비나 시간 계획을 미리 할 수 있기 때문이다.

    [이미지 삽입: Meteoblue Astronomy에서 low/mid/high cloud와 seeing이 보이는 화면]

    자비스가 쓰도록 만든 브리핑 구조는 대략 이렇다.

    # 도심의 딥스카이 사냥 - 일일 브리핑
    
    - 날짜:
    - 위치: 원주 혁신도시 옥상
    
    ## 오늘 밤
    - 총평:
    - 핵심 관측 창:
    - 출동 권고:
    - 딥스카이 적합도:
    - 오늘 밤 추천 장비:
    
    ## 내일 밤 예고
    - 총평:
    - 예상 관측 창:
    - 예고 신뢰도:
    - 내일 밤 추천 장비:
    
    ## 창 분석
    - 오늘 1차 관측 창:
    - 오늘 2차 관측 창:
    - 내일 1차 예상 창:
    - 창 길이 평가:
    - 핵심 리스크:
    
    ## 기술 데이터 요약
    - Low cloud:
    - Mid cloud:
    - High cloud:
    - Seeing 1:
    - Seeing 2:
    - Arc Sec.:
    - Jet Stream:
    - Bad Layers:
    - Temp:
    - Rel. Hum.:
    - Dew risk:
    - Moon impact:
    
    ## 추천 대상
    1.
    - 대상명:
    - 분류:
    - 추천 이유:
    - 추천 장비:

    이 포맷을 고정해두니까 좋은 점이 있었다.
    그날 밤 행동하기 쉬워지고, 관측 후 기록용 데이터로도 바로 붙일 수 있다.

    브리핑만으로는 부족해서, 대상 학습 카드도 만들었다

    브리핑을 받고 나면 이런 흐름이 생긴다.

    “좋아, 오늘 1순위는 M44네. 그런데 M44가 정확히 뭐지?”

    이걸 매번 즉흥적으로 설명하면 시스템이 지저분해진다.
    그래서 아예 대상 학습 카드라는 별도 포맷도 만들었다.

    즉 흐름은 이렇게 간다.

    1. 자비스가 브리핑을 준다
    2. 내가 오늘 대상을 고른다
    3. 예를 들어 “M44 자료 제공”이라고 말한다
    4. 자비스가 정해진 카드 형식으로 설명한다

    이 방식이 좋은 이유는 브리핑은 짧고 강하게 유지하면서도, 필요할 때는 공부 자료를 깊게 받을 수 있기 때문이다.

    [이미지 삽입: 대상 학습 카드 예시 화면]

    예를 들어 M44 학습 카드는 이런 구조다.

    # 도심의 딥스카이 사냥 - 대상 학습 카드
    
    - 대상명:
    - 분류:
    - 계절/관측 시기:
    - 오늘 기준 추천 여부:
    
    ## 1. 이 대상이 뭐냐
    - 대상의 정체:
    - 어떤 천체인지:
    - 거리 / 크기 / 밝기:
    - 어느 별자리 소속인지:
    
    ## 2. 왜 유명한가
    - 대표적인 이유:
    - 초보자에게 왜 좋은지:
    - 도심에서도 가능한지:
    
    ## 3. 어디서 찾나
    - 위치 설명:
    - 찾는 기준 별/별자리:
    - 스타호핑 난이도:
    
    ## 4. 오늘 뭘 봐야 하나
    - 육안/파인더에서 기대할 것:
    - 저배율에서 보일 포인트:
    - 중배율에서 보일 포인트:
    - 오늘 조건에서 특히 볼 핵심:
    
    ## 7. 오늘의 추천 장비
    - 경통:
    - 접안렌즈:
    - 배율 방향:
    - 촬영 시 추천 구성:

    이 구조는 꽤 마음에 든다.
    관측 직전에 보기 좋고, 나중에 블로그 글 재료로도 좋고, 초보자에게 설명할 때도 깔끔하다.

    내가 얻은 가장 현실적인 교훈

    이 과정을 하면서 느낀 건 딱 하나다.

    천체관측 초보자에게 필요한 건 더 많은 정보가 아니라, 더 좋은 판단 순서다.

    나도 처음엔 데이터가 많을수록 좋을 줄 알았다.
    그런데 실제로는 우선순위가 더 중요했다.

    딥스카이 기준이라면 나는 이제 이렇게 본다.

    • 첫 번째, cloud
    • 두 번째, transparency에 가까운 체감
    • 세 번째, 달빛 영향
    • 네 번째, 이슬 위험
    • 다섯 번째, seeing

    행성관측이라면 순서가 조금 바뀔 수 있다.
    하지만 딥스카이에서는 일단 구름이 제일 직접적이다.

    이 기준을 자비스 시스템에 넣어두니, 적어도 “오늘 나가야 하나 말아야 하나”를 훨씬 덜 헤매게 됐다.

    결론, 초보자일수록 관측 브리핑 시스템이 있으면 좋다

    내가 만든 시스템은 아직 완성형은 아니다.
    내일 실제 저녁 6시 브리핑이 오면 또 손볼 부분이 생길 수 있다. 그래도 방향은 분명하다.

    • Meteoblue Astronomy를 메인으로 본다
    • 일반 날씨는 보조로만 쓴다
    • 오늘 밤 전체가 아니라 관측 가능한 시간 창을 먼저 본다
    • 대상과 장비를 같이 추천한다
    • 필요하면 대상 학습 카드로 공부까지 이어간다

    이 정도만 해도 천체관측이 훨씬 덜 막막해진다.

    지금 당장 해볼 수 있는 행동은 하나다.
    오늘 밤 관측 전에 Meteoblue Astronomy에서 low, mid, high cloud부터 먼저 보는 습관을 들여보자.

    나도 그렇게 시작했고, 자비스도 이제 그 순서로 배우고 있다.
    오늘도 자비스는 진보하고 난 M44을 사냥하러 나간다 🙂

  • 8SE vs C9.25, 지방 도시 옥상 관측에는 무엇이 최선일까?

    지방 도시 옥상 관측대에서 8SE와 C9.25 사이에서 고민한 기록이다. 제미니,지피티,클로드 3가지로 3일간 시뮬레이션까지 돌려봤다.


    발단: CRUX 170HD가 생기고 나서 고민이 시작됐다

    솔직히 말하면, 마운트가 생기기 전에는 경통 업그레이드 생각을 진지하게 안 했다.

    그런데 CRUX 170HD 하모닉 드라이브 마운트가 손에 들어오고 나서, 머릿속이 이상하게 돌아가기 시작했다.

    “이 마운트, 더 큰 경통도 되지 않나?”

    그리고 타이밍 맞게 인터넷에 C9.25 최저가 매물이 올라왔다. 재고는 2개 금액은 231만원…역대급이다. 내가 가진 미사용 8SE는 130에 팔고 얼릉 바꿔 탈까? (실은 지금 거는 두번째 8SE이다. 처음거는 중고로 얼마전 80에 양도했다. 워낙 좋아하는 물건이라 두 번째 장만했던차라…)

    원주 혁신도시 건물 옥상 관측대. 쉐드와 5m 이동 거리. 조건은 나쁘지 않았다.

    그래서 AI한테 물어봤다. 제대로.


    8SE 경통, 숫자부터 확인하자

    먼저 팩트 확인부터 했다.

    Celestron 8SE 경통(OTA) 무게는 공식 스펙 기준 5.4kg(12lbs) 이다.

    가볍다. 한 손으로 들고 이동 가능하다. “꺼내서 바로 쓰는” 장비다.

    그런데 여기에 파인더, 아이피스, 카메라까지 붙으면?

    6~7kg이 된다.

    8SE 마운트가 항상 “한계에 걸린 느낌”이 드는 건 이 구조 때문이다. CRUX 170 기준으로는 문제없지만, 원래 포크 마운트와 붙어 다니는 설계라 경통 자체의 한계 설계가 있다.


    C9.25는 얼마나 다른가

    C9.25 OTA 공식 무게는 9.1kg(20lbs) 이다.

    8SE 대비 단순 차이: +3.7kg, 약 68% 증가.

    숫자로 보면 “조금 무겁네” 싶지만, 실제 취급은 완전히 다른 이야기다.

    8SE는 생각 없이 꺼낸다. C9.25는 마음 준비하고 꺼낸다.

    부속 포함 최종 무게는 이렇게 된다.

    구성8SEC9.25
    경통5.4kg9.1kg
    파인더/아이피스/카메라+1~1.5kg+1~1.5kg
    최종 합산6~7kg10~11kg

    CRUX 170HD는 스펙상 버틴다. 하지만 “버틴다 ≠ 편하게 쓴다”는 게 핵심이었다.


    성능 차이는 실제로 얼마나 체감될까

    광집광력 기준으로 C9.25는 8SE 대비 약 1.33배(+33%) 다.

    숫자만 보면 상당해 보인다.

    그런데 천문 관측에서는 오래된 현실이 있다.

    “2배 이상 차이가 나야 ‘와, 다르다’ 느낌이 온다.”

    AI 시뮬레이션을 돌려보니 체감 증가는 이 정도였다.

    항목체감 변화
    성운 밝기약간 밝아짐
    성운 구조약간 더 보임
    은하조금 더 또렷
    행성거의 차이 없음

    행성은 시잉이 90%를 결정한다. 원주처럼 Bortle 6~7 수준의 지방 도시 하늘에서는, 평균 시잉이 구경 차이를 상당 부분 먹어버린다.

    평균 시잉에서는 8인치 vs 9.25인치 분해능 차이 거의 안 살아남음 즉 평균 시잉에서는 C8이 C9.25랑 거의 동일한 행성 디테일을 보이고 성능을 끌어 낼때가지 기다리는 시간도 훨씬 길다. 그리고 옥상위 라는 조건도 낮에 받은 열이 식어 가면서 관측에 악영향을 미친다.

    결론적으로 성능 증가는 +30%, 체감 증가는 +10~15% 수준이었다. 결정적으로 관리 스트레스와 꺼내고 들이고 하는 과정에서 집중도와 노동력이 훨씬 커진다.


    그럼 ‘진짜 체감’이 오는 구경은 어디부터인가

    여기서 AI가 꽤 냉정한 답을 줬다.

    8인치 → 9.25인치: 의미 없음 8인치 → 12인치: 의미 있음 8인치 → 14인치↑: 세계가 바뀜

    12인치는 8인치 대비 광집광력이 약 2.25배다. 여기서부터 성운 구조가 살아남기 시작하고, 구상성단 분해가 시작된다.

    C9.25는 솔직히 “착각 구간”이다. 돈과 무게는 급증하는데, 눈에 들어오는 변화가 작다.


    원주 옥상 관측대 기준, 최종 판단

    내 환경을 다시 정리하면:

    • Bortle 6~7 (지방 도시)
    • 건물 옥상 쉐드
    • 이동 거리 5m 이내
    • CRUX 170HD 마운트

    이 조건에서 선택지는 세 가지다.

    1️⃣ 8SE 유지 → 가장 오래 쓴다. 후회 없다.

    2️⃣ 12인치 돕소니안 → 체감 확실. 현실적으로 가장 효율적인 업그레이드.

    3️⃣ C9.25 → 무게 급증, 체감 작음. 가장 비효율 구간.

    결론은 생각보다 빨리 나왔다.

    C9.25 최저가 매물은 닫았다.


    지금 내가 선택한 것

    8SE를 유지하기로 했다. 그리고 크록스에 물려 옥상에서 관측을 하고 정리하면서 다시 깨달았다. 편하게 자주 쓰는 물건이 최고임을…

    CRUX 170HD에 C9.25을 올리면 그 과정이 지금처럼 편하지 않을거다.

    장비 업그레이드 욕구는 솔직히 아직 있다. 하지만 지금 가진 장비를 충분히 쓰지도 않고 더 큰 것으로 가는 건, 결국 또 다른 부족함을 향해 달려가는 루프라는 걸 AI가 꽤 직설적으로 알려줬다.

    진짜 업그레이드를 하게 된다면, 그때는 12인치부터 진지하게 볼 것이다.

    지금은 원주 하늘 아래, 있는 장비로 충분히 보는 게 먼저다.

    관측 빈도 유지 (지금처럼 자주 본다) → 8SE 유지

    성능 우선 (덜 자주, 대신 더 깊게 본다) → C9.25

    난 편하게 자주 보기로 했다. 업그레이드 비용 아꼈고 경위대,삼각대는 50만원에 양도 했다.

    다짐: 9.25인치는 광학적으로는 매력적일지 몰라도, “내 몸을 깎아서 우주를 보는 행위”가 될 가능성도 있음을 기억하자

  • Beyond the Magnifying Glass: Understanding Focal Length and Image Circles with AI

    This is a record of a dentist’s journey to understand the fundamental principles of telephoto lenses. From focal length and image circles to angle of view, I stripped it all down to the basics.


    I Thought Lenses Were Just Magnifying Glasses

    As I started astrophotography, I began using telephoto lenses.

    Naturally, a question arose: why does a longer focal length make objects look larger?

    My initial assumption was simple:

    “Light converges to a single point like a magnifying glass, flips upside down as it crosses over, and the sensor sits somewhere behind that point — right?”

    Wrong. It took me an hour of debating with an AI to break this misconception.


    The True Definition of Focal Length: Understanding via the Sun

    If you hold a convex lens under sunlight, it burns a hole in paper. The distance from the lens to that burning spot is the focal length (f).

    Because the Sun is so far away, its rays enter the lens almost perfectly parallel. Parallel rays converge into a single point. In a 500mm lens, this happens exactly 500mm behind the lens.

    This is a fixed value determined at the factory.


    Real-World Objects Do Not Converge to a Single Point

    This is where I got stuck.

    Unlike the Sun, light from everyday objects — reflective sources — behaves differently.

    Light from Point A on an object → passes through the lens → lands on Position A’ on the sensor. Light from Point B on an object → passes through the lens → lands on Position B’ on the sensor.

    Because light enters from various angles, it forms a plane at the focal distance, not a single point.

    A lens is not a device that gathers light into a point.

    A lens is a transformer — it converts angular information into spatial position.

    This one sentence broke my misconception completely.


    Where is the Sensor? — Warning: Never Aim at the Sun

    The sensor is placed exactly on the plane where the image forms — the focal distance.

    I realized something here on my own:

    “If I aim a camera at the Sun, the sensor will melt.”

    This is a real danger. In the film era, sunlight burned holes in shutters. Today, it permanently destroys pixels. The longer the focal length, the more dangerous — energy is concentrated into a much tighter point.

    [Image comparing direct sunlight vs. reflected light paths through a camera lens]


    The Image Circle: A Fixed Property of the Lens

    I used to think the image circle changed based on the subject.

    Wrong again.

    The image circle — the maximum area a lens can project — is a fixed value determined by the lens design. Whether you photograph a mountain or a marble, the circle stays the same. What changes is what fits inside that circle.

    This is why Full-Frame and APS-C lenses exist separately. When the sensor is larger than the image circle, the edges go dark. That is called vignetting.


    Finally — Why Long Focal Lengths Narrow the View and Magnify

    Now the core physics.

    $$x = f \cdot \tan(\theta)$$

    $x$: Distance from the sensor center to where the light lands. $f$: Focal length. $\theta$: The angle of the incoming light.

    Light entering along the optical axis lands at the center of the sensor. Light entering at an angle lands away from the center — the greater the angle, the further from center it lands.

    When $f$ increases, the same angle $\theta$ is projected further from the sensor center.

    But the sensor size is fixed.

    So the maximum angle that can fit onto the sensor gets smaller. This is why the angle of view narrows.

    And that narrow slice of the world is now stretched across the entire sensor. This is why the subject appears magnified.

    In one sentence:

    A longer focal length accepts only a narrow range of angles, and that narrow range is spread across the entire sensor — so the view narrows and the subject grows larger.


    Summary

    ConceptCore Truth
    Focal LengthDistance where parallel rays converge. A fixed lens property.
    Real-World SubjectDoes not form a point. Forms an image on a plane.
    Image CircleFixed by lens design. Independent of the subject.
    Magnification PrincipleNarrower angles projected across the same sensor area.

    One thing you can do today. Take a magnifying glass outside and find the point where sunlight burns the tightest spot on paper. That distance is the focal length. Physics is best understood through the fingertips.

    Giving you the Universe,

  • 초점 거리가 길면 왜 확대될까? — 렌즈 원리를 AI와 함께 바닥부터 파헤친 기록

    치과의사가 망원렌즈 원리를 이해하려고 AI와 싸운 기록이다. 초점 거리, 이미지 서클, 시야각까지 밑바닥부터 파헤쳤다.


    나는 렌즈를 돋보기로만 생각했다

    천체사진을 찍기 시작하면서 망원렌즈를 쓰게 됐다.

    그런데 궁금했다. 왜 초점 거리가 길수록 더 크게 보이는 걸까?

    처음엔 당연히 이렇게 생각했다.

    “돋보기처럼 빛이 한 점으로 모이고, 그 점에서 빛이 상하로 교차하면서 뒤집히고, 그 너머 어딘가에 센서가 있는 거 아닌가?”

    틀렸다. 이 고정관념에서 벗어나는 데 한 시간이 걸렸다.


    초점 거리의 진짜 정의는 태양으로 이해된다

    볼록렌즈를 햇빛 아래 들고 있으면 종이가 탄다. 그 타는 지점까지의 거리가 바로 **초점 거리(focal length)**다.

    태양빛은 지구에 도달할 때 거의 평행하게 들어온다. 평행광은 렌즈를 통과하면 딱 한 점으로 모인다. 500mm 렌즈라면 렌즈에서 정확히 500mm 지점에서 한 점으로 모이는 것이다.

    이게 초점 거리의 정의다. 렌즈 공장에서 결정되는 고정값이다.


    일반 피사체는 한 점으로 모이지 않는다

    여기서 내가 처음 막혔다.

    태양빛은 평행광이라서 한 점으로 모인다. 그런데 일반 피사체, 즉 반사체에서 나오는 빛은 다르다.

    피사체의 A점에서 나온 빛 → 렌즈 통과 → 센서의 A’ 위치에 맺힌다 피사체의 B점에서 나온 빛 → 렌즈 통과 → 센서의 B’ 위치에 맺힌다

    각 점에서 나온 빛이 각기 다른 각도로 렌즈에 들어오기 때문에, 초점 거리 지점에서 점이 아니라 면으로 맺힌다.

    렌즈는 “빛을 한 점으로 모으는 장치”가 아니다.

    렌즈는 각도 정보를 위치 정보로 바꾸는 변환기다.

    이 문장 하나로 내 고정관념이 무너졌다.


    그러면 센서는 어디에 있나 — 태양을 찍으면 센서가 탄다

    센서는 초점 거리 지점, 즉 상이 맺히는 면 위에 딱 갖다 놓은 것이다.

    여기서 내가 스스로 추론해낸 것이 있다.

    “그러면 태양을 향해 카메라를 들이대면 센서가 타겠네?”

    맞다. 실제로 일어나는 일이다.

    필름 카메라 시절에는 태양을 향하면 셔터막이 타서 구멍이 뚫렸다. 디지털 카메라는 센서 픽셀이 영구 손상된다. 망원렌즈일수록 더 위험하다. 초점 거리가 길수록 에너지가 더 좁은 점에 집중되기 때문이다.


    이미지 서클은 렌즈의 고정값이다

    대화를 이어가다가 또 하나의 개념을 정리했다.

    이미지 서클(image circle) — 렌즈가 만들어낼 수 있는 최대 이미지 영역이다.

    처음엔 피사체가 크면 이미지 서클도 커지는 줄 알았다. 틀렸다.

    이미지 서클은 렌즈 설계로 결정되는 고정값이다. 피사체가 뭐든, 거리가 얼마든 바뀌지 않는다. 바뀌는 건 그 서클 안에 무엇이 담기느냐일 뿐이다.

    그래서 풀프레임용 렌즈와 크롭용 렌즈가 따로 있다. 센서 크기에 맞게 이미지 서클을 설계하는 것이다. 센서가 이미지 서클보다 크면 가장자리가 까맣게 된다. 이걸 비네팅이라고 부른다.


    초점 거리가 길면 왜 시야각이 좁아지고 확대될까 — 드디어 답

    이제 준비가 됐다.

    핵심 공식은 이것이다.

    x = f · tan(θ)
    

    x = 센서 중심점에서 빛이 맺히는 거리 f = 초점 거리 θ = 빛이 들어오는 각도

    광축, 즉 렌즈 정중앙으로 들어온 빛은 센서 중심에 맺힌다. 각도가 있는 빛은 그 중심점에서 벗어난 위치에 맺힌다. 각도가 클수록 중심에서 더 멀리 맺히는 것이다.

    초점 거리 f가 길어지면, 같은 각도 θ로 들어온 빛이 센서의 중심점에서 더 멀리 맺힌다.

    그런데 센서 크기는 고정이다.

    결국 센서 안에 들어올 수 있는 θ의 최대값이 줄어든다. 이게 시야각이 좁아지는 이유다.

    그리고 그 좁아진 각도 범위, 즉 좁은 장면이 센서 전체를 가득 채운다. 이게 확대되는 이유다.

    한 줄로 정리하면:

    초점 거리가 길어지면 좁은 각도만 받을 수 있고, 그 좁은 각도가 센서 전체에 펼쳐지니까 — 시야는 좁아지고 피사체는 커 보인다.


    오늘 배운 것 한 줄 정리

    개념핵심
    초점 거리평행광이 한 점으로 모이는 거리. 렌즈 고정값
    일반 피사체한 점 아님. 면으로 맺힘
    이미지 서클렌즈 고정값. 피사체와 무관
    망원렌즈 확대 원리좁은 각도 → 센서 전체에 펼쳐짐

    오늘 당장 할 수 있는 것 하나. 돋보기를 들고 햇빛 아래 나가서 종이를 태워봐라. 그 타는 지점까지의 거리가 그 렌즈의 초점 거리다. 렌즈 원리가 손끝으로 이해된다.

    우주을 너에게 줄게…

  • OpenClaw “Control UI assets not found” 오류 — 재설치 말고 pnpm ui:build 해야 한다

    OpenClaw 대시보드를 열었더니 “Control UI assets not found” 오류만 떴다. 공식 재설치를 여러 번 해도 똑같았다. 원인은 패키지 배포 버그였고, 해결은 직접 빌드하는 것뿐이었다.


    사건의 시작은 황당했다

    에이전트한테 “바탕화면에 열린 다른 창 닫아라”고 했다. 에이전트가 macOS 단축키 ⌘W를 실행했는데, 그 순간 활성 상태였던 창이 OpenClaw 채팅창이었다. 채팅창이 그대로 닫혀버렸다.

    ⌘W는 현재 포커스된 창을 닫는 단축키다. 에이전트가 어떤 창이 활성 상태인지 구분 못 한 게 원인이었다.

    이후 브라우저에서 http://127.0.0.1:18789 를 다시 열었더니 이 화면만 떴다.

    Control UI assets not found. Build them with `pnpm ui:build`
    (auto-installs UI deps), or run `pnpm ui:dev` during development.
    

    오류의 정체

    터미널 로그에도 이렇게 찍혔다.

    [gateway] Missing Control UI assets at
    /opt/homebrew/lib/node_modules/openclaw/dist/control-ui/index.html.
    

    gateway 자체는 살아 있었다. 문제는 브라우저 화면을 그리는 정적 파일(index.html 등)이 아예 없다는 것이었다.

    원인은 Homebrew/npm 패키지 배포 과정의 버그다. 공식 설치 스크립트로 재설치해도 이 파일은 복구되지 않는다. 직접 빌드해서 넣어줘야 한다.


    해결 방법 — 4단계

    1단계 — 설치 경로 확인

    ls -la /opt/homebrew/bin/openclaw
    

    /opt/homebrew/lib/node_modules/openclaw/ 경로가 나오면 정상이다.

    2단계 — GitHub에서 소스 클론 및 빌드

    git clone https://github.com/openclaw/openclaw.git ~/openclaw-src
    cd ~/openclaw-src
    pnpm install
    pnpm ui:build
    

    아래 메시지가 나오면 빌드 성공이다.

    ✓ built in 561ms
    

    주의: pnpm ui:build 는 반드시 클론한 디렉토리(~/openclaw-src) 안에서 실행해야 한다. 홈 디렉토리나 .openclaw 폴더에서 실행하면 ERR_PNPM_NO_IMPORTER_MANIFEST_FOUND 에러가 난다.

    3단계 — 빌드 결과물 복사

    cp -r ~/openclaw-src/dist/control-ui /opt/homebrew/lib/node_modules/openclaw/dist/
    

    4단계 — OpenClaw 재시작

    새 터미널 탭에서 실행한다.

    openclaw gateway --force
    

    브라우저에서 새로고침하면 대시보드가 정상으로 돌아온다.

    [이미지 삽입: 정상 복구된 OpenClaw 대시보드 화면]


    알아두면 좋은 것

    OpenClaw를 업데이트하면 같은 증상이 재발할 수 있다. 업데이트할 때마다 2~4단계를 반복하면 된다.

    이건 사용자 실수가 아니다. 패키지 배포 버그다.


    지금 당장 할 수 있는 것

    같은 오류를 만났다면 재설치 시도는 그만하고 바로 이 순서로 가자.

    1. git clone 으로 소스 받기
    2. pnpm ui:build 로 빌드
    3. dist/control-ui 복사
    4. openclaw gateway --force 재시작

    재설치로 안 된다면 빌드가 답이다.

    복구하고 다시 재회한 화면

    오늘도 자비스는 진보한다.