M31 안드로메다 은하(Andromeda galaxy)

드디어 끝냈습니다

M31 안드로메다 은하
총 노출시간 : 10시간 45분 05초

장비 
    Meade Series 6000 70/350mm Petzval
    ZWO ASI6200MM with OAG
    ZWO ASI174MM
    Celestron AVX mount & tripod

촬영시기는 9월 28일, 10월 17일, 10월 23일입니다. 
촬영기간중 발생했던 문제는 1) AVX적도의의 주기적 RA 오차와 2) ZWO EAF의 작동불능 3) Maxim DL의 포기였습니다. 

1. 모든 프레임의 전처리 진행

총 촬영장수는 아래와 같습니다. 잘못 나온 것, 나무 그림자가 진 것, 흔들린 것은 모두 뺐어요. AVX 마운트가 말썽을 부려 R 필터에서는 최대 80%까지 촬영한 프레임을 버리는 일이 발생했습니다.
ㅠㅠ 
  • Luminance 
    • 15초 x 94장 (돌아간 것)
    • 15초 x 92장 
    • 45초 x 91장
    • 70초 x 17장
  • Red 
    • 120초 x 8장
    • 120초 x 25장
    • 150초 x 8장
  • Green
    • 120초 x 43장
    • 150초 x 25장
  • Blue
    • 120초 x 43장
    • 150초 x 40장
  • H-alpha
    • 600초 x 9장

촬영한 데이타를 가지고 생성한 마스터 프레임(이미지의 본처리를 위해 Integration을 한 것)의 종류는 아래와 같습니다. 
  • Luminance 15초 마스터
  • Luminance 45초 마스터
  • Luminance 70초 마스터
  • Red 120초 마스터
  • Red 150초 마스터
  • Green 120초 마스터
  • Green 120초 마스터
  • Blue 120초 마스터
  • Blue 150초 마스터
  • H𝛼 600초 마스터
이렇게 총 10개의 마스터 파일을 가지고 작업을 진행했습니다. 
제가 가진 이미지처리 소프트웨어는 PixInsight밖에 없기 때문에 처음부터 끝까지 이것으로만 진행했습니다. 과정은 아래와 같습니다. 

PixInsight 이미지처리 과정

Luminance

1. Luminance는 15초 노출을 기준으로 DynamicCrop을 실행
   이 기준을 이용해 다른 모든 프레임을 전부 Crop함 
2. DynamicBackgroundExtraction을 실행. 15초, 45초, 70초에 각각 적용
3. HDRComposition으로 Luminance 합침
4. RangeMaskStarMask생성
5. PSF를 생성하고, Preview 만들어 Deconvolution 실행. 
   Racoon eye가 만들어지지 않는 것을 확인함  
6. StarMask를 덮고 Deconvolution 실행 
7. MultiscaleLinearTransform을 실행해 노이즈 소량 제거
8. H𝛼와 합쳐봤으나 창백한 영역의 신호가 죽어버렸고, 안드로메다의 붉은 점박이 더
   뚜렷해지는 것도 아니어서 폐기. 그냥 L만 쓰기로 함 
9. HistogramTransformation 실행하고 작업 종료

Red

1. DynamicBackgroundExtraction을 실행, 120초 및 150초에 각각 적용 
2. HDRComposition을 실행. 작업중 120초 노출의 2차 촬영에 심하게 어두운 영역
   (무엇인지 모름)이 에러를 일으켜 취소하고 나머지 120초와 150초만으로 실행함 
3. 결과물과 H𝛼를 PixelMath를 이용해 합침 
4. DynamicBackgroundExtration을 다시 실행함

Green

1. DynamicBackgroundExtraction을 실행, 120초 및 150초에 각각 적용 
2. HDRComposition을 실행. 120초와 150초에 실행함 
3. DynamicBackgroundExtration을 다시 실행함

Blue

1. DynamicBackgroundExtraction을 실행, 120초 및 150초에 각각 적용 
2. HDRComposition을 실행. 120초와 150초에 실행함 
3. DynamicBackgroundExtration을 다시 실행함

H𝛼

1. DynamicBackgroundExtraction을 실행
   (이 작업은 꼭 필요하진 않다고 알고 있습니다. H𝛼는 UFI가 없다시피 하거든요)

RGB

3. BackgroundNeutralization을 실행
5. ColorCalibration을 실행함.

LRGB

1. LRGBCombination을 실행
   Transfer function의 Saturation을 조금 줄이고 (오히려 색이 강해짐),
   Chrominance noise reduction을 추가해 실행
2. TGVDenoise를 실행
   RGB/K 모드로 Preview를 만들고, Preview를 cloning해서 수차례 시도해본 후 적용
5. ColorSaturation을 실행 
8. UnsharpMask를 실행했으나 마음에 들지 않아 폐기 
10. DarkStructureEnhance를 실행 

프로세싱 참고사항

  • 큰 프로세스를 돌리기 전에 반드시 Clone(Duplicate)을 만들어 비교할 것 
  • HDRComposition에서 사진의 순서는 꼭 노출시간 기준으로 하지 말고 SNR기준으로 보는 것도 좋음(장수가 많은 것이 더 결과물이 좋더라)
  • DynamicBackgroundExtraction은 프레임과 프레임을 합친 후에는 꼭 사용 
  • H𝛼가 Luminance에 포함된다고 꼭 콘트라스트가 높아지는 것은 아님
  • ColorCalibration과 PhotometricColorCalibration은 항상 양쪽 다 사용해 볼 것 
  • MLT프로세스는 Preview와 실제 결과물에 큰 차이가 없으나, 비선형 처리의 프로세스들은 다소 결과물에 차이가 있음. 주의할 것
  • LRGB 비선형처리에서 TGVDenoise는 RGB/K모드에서 하나 CIE L*a*b*모드에서 하나 큰 차이는 모르겠다. 특히 CIE L*a*b*에서 Chrominance는 거의 변화가 없음. 굳이 CIE L*a*b*에서 할 것이면 Luminance만 해도 큰 차이 없음
    그리고 TGVD의 테스트시, 백그라운드 영역에 한차례 테스트해보고 꼭 ROI영역에서도 한차례 더 테스트 할 것. 그리고 ROI영역의 대상이 얼마나 뭉게지는지 보고 결정할 것
  • LRGB 비선형처리 대부분은 반드시 RangeMask와 StarMask를 사용하며 처리할 것. 
    굳이 불필요한 주위 별의 콘트라스트를 높일 필요는 없다 
  • MorphologicalTransform의 경우 Iteration을 올리면 과장이 심해진다. Amount를 조절하며 별의 중심 밝기가 줄어드는 정도와 주위 헤일로의 차이를 보아가며 조절할 것
  • DarkStructureEnhance는 반드시 해줄 것. 무조건 좋아짐

주절주절

일단 촬영이 참 힘들었습니다. ZWO의 EAF가 말썽을 부린 것은 귀여울 정도였고, 가장 힘들었던 것은 일정한 간격으로 발생하는 RA의 갑작스런 이동(가이딩 오차)이었습니다. PHD2에서 한번에 4픽셀정도 흔들렸기 때문에 상당수의 RGB 프레임에 별상이 흐른 것을 확인할 수 있었습니다. 이것 때문에 상당히 많은 양의 RGB 이미지를 버릴 수밖에 없었습니다. 그래도 다행이었던 것은, Luminance 프레임의 노출시간이 짧아 폐기가 적었다는 정도겠네요. 물론 70초 노출에서는 많이 버렸습니다. ㅠㅠ 

촬영장수가 늘어나고 총 노출시간이 늘어나며 가장 힘들었던 것은 이미지 프로세싱에서 전처리 작업에 걸리는 시간이 끔찍하게 늘어났다는 것입니다. 특히 HDR 촬영(노출시간을 달리해 촬영하는 것)이 포함되면서 마스터 프레임의 생성이 많아졌고, 이때문에 전처리가 더 오래 걸렸습니다. 가뜩이나 싱글 프레임이 120메가 정도 되는 ASI6200MM이라서 더 힘들었네요. 
제 컴퓨터가 메모리가 커서 그나마 버틴 것 같습니다. 

이미지 프로세싱은 언제나 그렇듯 애매하고 힘든 과정이었습니다. 
뭔가 하나 잘못되면 처음부터 다시 돌아가 마스터 프레임의 처리부터 다시해야 했으니까요. 
마음에 드는 결과물이 나올때까지 몇 차례 반복했습니다. 하지만 그러면서 배운 점은, Luminance 영역의 문제는 촬영자체에 영향을 많이 받지만 RGB영역은 이미지 합성과 처리단계에서 영향을 많이 받는다는 것이었습니다. 물론 어느쪽이든 촬영 자체가 매우 중요하긴 했지만 RGB색상의 밸런스에 대한 문제는 온전히 이미지 프로세싱의 영역이었습니다. 
그리고.... 비선형 처리의 대부분은 계속 해보는 수밖에 없었습니다. PixInsight에서 어떤 문제를 해결할 때 사용할 수 있는 방법은 여러가지가 있는데, 이 방법마다 결과물이 조금씩 달랐습니다. 결국 끝임없는 반복과 실험밖에 방법이 없더군요. 또한 대부분의 비선형처리는 가능한한 조금씩, 약간 아쉬울 정도로 처리하는 것이 좋다는 결론에 도달했습니다. 

마지막으로 Deconvolution 프로세스는 했을때가 안했을때보다 눈꼽만큼 대상이 선명해지는 효과가 있었습니다. 대신 Racoon eye를 만들 가능성이 있어 조심해야겠지만 그렇다고 꼭 하지말라고 할 프로세스는 아닌 것 같습니다. 그리고 반대로 꼭 해야한다고 말하기도 애매하더군요. ㅎㅎ; 

아무튼 끝났습니다. 이제 M31은 당분간 안 찍으려고 합니다. ㅋ 
하늘에는 다른 아름다운 대상도 많으니까요. 

이번 이미지 프로세싱을 하며 느낀 것이 하나 있다면, 전 조금 과장된 색상보다 창백하고 포화도가 낮더라도 부드러운 결과물을 좋아하는 것 같습니다. 앞으로도 부드러운 느낌의 결과물을 계속 만들것 같습니다. ^^ 

개선점

  1. 어떻게든지 적도의의 문제를 해결해야 합니다. 여기에 쓸 수는 없지만 해결책을 찾은 것 같지만 아무튼 이 문제가 지속되면 촬영 자체가 불가능할 것 같아요
  2. 앞으로 RGB는 2bin으로 찍을까 합니다. 아무래도 제 사진들은 Chrominance 영역의 신호가 약한 것 같아요. 1bin에서 이 문제를 해결할 수도 있지만 그러면 노출시간이 늘어나 촬영장수가 적어질테니까요. 귀찮아도 2bin을 쓰려고 합니다. 
    누가 뭐라고 해도 촬영장수는 생명입니다. SNR이 팍팍 올라가요

댓글

  1. 정말 엄청난 양의 데이터를 처리하셨습니다!! 저는 꿈도 못꾸는 양이네요!!!!
    처리 과정도 방대해서 일단 시간을 두고 천천히 정독 해야겠습니다 ㅎㅎ
    적도의가 자꾸 속을 썩여서 고생많으셨습니다. 이제 걱정없는 세계로 가셔야죠~

    답글삭제
    답글
    1. 감사합니다. ^^;
      저도 두루별님처럼 선명한 사진을 찍어보고 싶은데 뭔가 잘 안되네요. ㅎㅎ;
      저도 PixInsight를 잘 하는 것은 아니지만 가능하면 이미지 처리 단계를 매번 올려볼까 합니다.
      누군가는 참고하지 않을까 해서요. ^^;

      삭제

댓글 쓰기