푸리에 광학

Fourier optics

푸리에 광학(Fourier optics)은 푸리에 변환(FT)을 이용한 고전 광학 연구로, 이 연구에서는 고려 중인 파형이 평면 파형의 조합 또는 중첩으로 이루어진 것으로 간주된다. 그것은 Huygens-Fresnel 원리와 일부 유사성을 가지고 있는데, 이 원리에서 파동선은 연구 중인 파동전선의 합이 되는 구형 파동프론트(위상프론트라고도 한다)의 조합으로 구성되는 것으로 간주된다. 중요한 차이점은 푸리에 광학(Fourier optics)이 구형파가 물리적 매체에서 발생하는 Huygens-Fresnel과는 반대로 평면파를 전파 매체의 자연적 모드로 간주한다는 것이다.

곡선 위상전선은 이러한 "자연 모드"의 무한수에서 합성될 수 있다. 즉, 공간의 다른 방향을 지향하는 평면파 위상프론트에서 합성할 수 있다. 그 근원에서 멀리 떨어진 곳에서 팽창하는 구형 파형은 방사상 전파 방향에 횡방향인 평면 위상 전면(무한 스펙트럼에서 단일 평면 파동)에 국소적으로 접선한다. 이 경우 하나의 구형파상 중심에서 나오는 프라운호퍼 회절 패턴이 생성된다. 가까운 필드에는 잘 정의된 구면파상 중앙이 단 한 개도 존재하지 않기 때문에 파동전선이 구면공과 국소적으로 접하지 않는다. 이 경우 우주에서 (물리학적으로 식별할 수 있는) 구형 파원의 분포로 구성된 확장된 소스에서 나오는 프레스넬 회절 패턴이 생성될 것이다. 가까운 들판에서, 국지적으로라도 프레스넬 근거리 들판 파동을 나타내기 위해서는 전체 스펙트럼의 평면파가 필요하다. 앞으로 나아가는 "넓은" 파동(해안을 향해 다가오는 팽창하는 바다의 파동처럼)은 무한히 많은 "평면파 모드"로 간주할 수 있는데, 이 모든 것은 (방해하는 어떤 것과 충돌할 때) 서로 독립적으로 흩어질 수 있다. 이러한 수학적 단순화와 계산은 푸리에의 분석과 합성의 영역이다 – 그들은 함께 빛이 여러 가지 슬릿, 렌즈 또는 거울을 한쪽 또는 다른 쪽으로 구부러지거나 완전히 또는 부분적으로 반사되었을 때 어떤 일이 일어나는지 설명할 수 있다.

푸리에 광학(Fourier optics)은 양자 광학(quantum optics)과 같은 광학 소스에서 정보를 추출해야 하는 응용 프로그램을 찾는 것뿐만 아니라 영상 처리 기법의 많은 이론을 형성한다. 전통적인 푸리에 변환 이론에서 사용된 주파수시간의 개념과 유사하게 약간 더 복잡한 방식으로 표현하기 위해 푸리에 광학에서는 공간 주파수 영역(kx, ky)을 공간(x, y) 영역의 결합체로 사용한다. 변환 이론, 스펙트럼, 대역폭, 창 기능 및 1차원 신호 처리로부터의 샘플링과 같은 용어와 개념이 일반적으로 사용된다.

광원이 없는 균질 매체에서의 빛의 전파

빛은 자유 공간(진공)이나 재료 매체(공기 또는 유리 등)를 통해 전파되는 파형으로 설명할 수 있다. 수학적으로 파동을 기술하는 벡터장의 실제 가치 구성요소는 공간과 시간 모두에 의존하는 스칼라 파형 함수 u로 표현된다.

어디에

3차원 공간(여기서 데카르트 좌표계)의 위치를 나타내며 t는 시간을 나타낸다.

파동 방정식

푸리에 광학(Fourier 광학)은 균일한 스칼라 파동 방정식으로 시작한다(원자가 없는 영역에서 유효함).

여기서 빛의 속도u(r,t)는 자유공간을 통해 전파되는 전자기파의 실질가치의 카르테시안 성분이다(예: u(r,t) = ei(r,t)는 i = x, y 또는 z에 대한 E(r,t)이고 여기i E는 카르테시안 좌표계전기장 E의 i축 성분이다.

정현상 안정 상태

시간/파장/색상(단일 모드 레이저에서 나온 것처럼)의 고정 주파수의 빛을 가정할 경우, 엔지니어링 시간 규칙에 하여 각도 주파수 = =2 {\ e t에서 파장 시간 의존성을 가정한다 여기서 (는) 파동의 기간이며 광학장의 시간적 형식은 다음과 같이 주어진다.

, )= R { (r) ) t

여기서 (는) 가상 단위, e{ 은(는) 의 실제 부분을 차지하는 연산자다

광파의 각도 주파수(단위 시간당 라디안 단위)이며,

일반적으로 복잡한 수량이며, 음이 아닌 실제 숫자의 진폭 과(와) 위상 이(가) 각각 다르다

헬름홀츠 방정식

위의 스칼라 파동 방정식으로 이 표현을 대체하면 파동 방정식의 시간 독립적 형태를 얻을 수 있다.

어디에

파장 이(가) 진공 상태에서 파장 번호(전파 상수라고도 함), ( ) )는 전자기파의 복합 데카르트 성분의 공간 부분이다. 전파 상수 각도 주파수 (는) 서로 선형 관계가 있으며, 균질 매체에서 횡단 전자기(TEM) 파형의 일반적인 특성이다.

Since the originally desired real-valued solution of the scalar wave equation can be simply obtained by taking the real part of , solving the following equation, known as the Helmholtz equation, is mostly concerned as 복잡한 가치 함수를 처리하는 것이 해당 실제 가치 함수를 처리하는 것보다 훨씬 더 쉬운 경우가 많다.

( + ) ( )= 0 displaystyle \left\la^{2}\ .

헬름홀츠 방정식 해결

데카르트 좌표계의 헬름홀츠 방정식에 대한 해법은 부분 미분 방정식에 대한 변수 분리 원리를 통해 쉽게 찾을 수 있다. 이 원리는 분리 가능한 직교 좌표에서 이 파동 방정식에 대한 기본적인 제품 용액은 다음과 같은 형태로 구성될 수 있다고 말한다.

즉, x의 함수의 산물로서 y의 함수를 곱하고 z의 함수를 곱한다.기본 제품 솔루션을 파동 방정식으로 대체하면 데카르트 좌표계의 스칼라 라플라시안을 사용한다.

3개의 개별함수에 대한 다음의 방정식을 구한다.

형식에 따라 쉽게 재배열된다.

이제 위의 방정식에서 각 지분은 필연적으로 일정해야 한다는 주장이 제기될 수 있다. 이를 정당화하려면 첫 번째 몫은 상수가 아니고 x의 함수라고 하자. 방정식의 다른 어떤 항도 변수 x에 의존하는 것이 없으므로 첫 번째 항도 x의존성이 없어야 하고 상수여야 한다.(첫 번째 항이 x의 함수라면 ti의 왼손을 만들 방법이 없다.s 방정식은 0이다.) 이 상수는 -k²로x 표시된다. yz 인용구에 대해 비슷한 방식으로 추론하면 f, fxy, f, fz 대해 다음과 같은 세 가지 일반적인 미분 방정식을 구할 수 있다.

이 3개의 미분방정식은 각각 sine, cosine 또는 복잡한 지수형 등 동일한 솔루션 형태를 가지고 있다. 복합 지수( ) 을(를) 복합 함수로 한다. 그 결과, 기본 제품 솔루션 , , ) (가)

일반적으로 복잡한 숫자 과(와) 함께 이 솔루션은 복잡한 값을 갖는 데카르트 구성 요소(: E y E displaystystylez})의 공간 부분이다. 전파 평면파. = z z는 소스가 없는 매체의 파동이 가정되어 매체에 전파될 때 각 평면파가 부패하거나 증폭되지 않기 때문에 여기에서 실적이다. The negative sign of (, , or ) in a wave vector (where ) means that the wave propagation direction vector has a positive (, , or )-component, while th k i 양 부호는 해당 벡터의 마이너스 i = i y y} 또는 z 을 의미한다

헬름홀츠 방정식에 대한 제품 솔루션은 원통형 좌표와 구형 좌표에서도 쉽게 구할 수 있으며, 원통형구형 고조파(남은 분리형 좌표계는 훨씬 덜 자주 사용됨)가 산출된다.

솔루 :션: 첩첩 적분

데카르트 좌표계의 고정 시간 f 에서 균일한 전자파 방정식에 대한 일반 솔루션은 가능한 모든 초등 평면파 솔루션의 가중 중첩으로 형성될 수 있다.

with the constraints of , each as a real number, and where .

다음, 우리.

( , y)= ( x, , z) z= )=\(x

다음:

일반 전자기장(예: 구형파)의 평면파 스펙트럼 표현은 푸리에 광학(이 점은 충분히 강조할 수 없음)의 기초가 된다(z = 0일 때 위의 방정식은 단순히 필드와 평면파함량 사이의 푸리에 변환(FT) 관계가 되기 때문이다(이 명칭은 "Fo").광학(yourer optics)").

따라서 다음과 같다.

그리고

각 평면파 성분의 모든 공간 의존성은 지수함수로 명시적으로 설명된다. 지수계수는 일반 푸리에 분석푸리에 트랜스포트(Fourier transfers for)와 마찬가지로 위에서 언급한 제약조건을 통해 나머지 구성 요소를 결정할 수 있기 때문에) 각 평면파에 대한 파동 벡터의 두 성분만 가지는 함수다(예: }Ms.

사이의 에 관한 연구

z축이 시스템의 광축이고 객체 평면(시스템 이미지 평면에 이미징될 예정)이 z= 의 평면인 영상 시스템을 생각해 보자 객체 평면에서는 위에서와 같이 파동의 복합 값 데카르트성 성분의 공간 부분은 0, y)이다. with the constraints of , each as a real number, and where . 영상촬영은 물체에서 영상면으로 적절한 파장 전파(예: 공중에서 영상 촬영에 대해 생각해 보십시오.)를 통해 영상 평면에 있는 물체 평면에 있는 파장(이미징될 물체 평면의 패턴에 대한 정보를 가지고 있음)과, 파터를 완전히 따르는 물체 평면의 파장을 재구성하는 것이다.n to be imaged, is in principle, described by the unconstrained inverse Fourier transform 여기서 은(는) 실수의 무한 범위를 취한다. 그것은 주어진 광 주파수의 경우, 위에서 언급한 i (1) 역 푸리에 변환에서 표현되는 미세한 형상 에 패턴의 전체 형상의 만 이미징할 수 있다는 것을 한다 여기서 k = 2+ k k_하는 가로파수다., can not be fully imaged since waves with such do not exist for the given light of (This phenomenon is known as the diffraction limit.), and (2) spatial frequencies with 축에 대해 파형이 더 높은 출각 각도로 에 가깝지만 비용이 많이 들고 구축하기 어려운 높은 NA(숫자 개구부) 영상 시스템이 필요하다. (1)의 경우, 복합 값 종방향 wavenominus k 허용되더라도(일반적으로 고체 물질인 빛과 물체 평면 패턴 사이의 알 수 없는 상호작용에 의해), {\는 z{\z} 축을 따라 빛의 붕괴를 발생시킨다. 축은 물체와 영상 평면 사이에 증폭 물질이 없는 경우 물리적으로 의미가 없으며, 이는 일반적인 경우) 따라서 k {\를 가진 파동은 일반적으로 물체 평면으로부터 충분히 먼 영상 평면에 도달하지 못할 수 있다.

전자부품의 포토리스토그래피와 관련하여, 이들 (1)과 (2)는 웨이퍼의 포토레지스트에 집적 회로의 보다 미세한 기능을 영상화하기 위해 더 높은 주파수(더 작은 파장, 따라서 더 큰 인 k 또는 더 높은 NA 영상 시스템이 필요한 이유다. 그 결과, 그러한 광학 석판화를 실현하는 기계는 점점 더 복잡해지고 비싸져 전자 부품 생산 비용이 크게 증가하게 되었다.

.

근축파 전파(광축은 z축으로 가정)

헬름홀츠 방정식에 대한 해법은 단일 주파수 파형의 복합 값 데카르트 성분의 공간 부분으로서 다음과 같은 형태를 취하는 것으로 가정한다.

서 k 는) 파형 벡터

그리고

웨이브 넘버. 다음으로, 다음과 같은 작은 각도근사치근사치를 사용한다.

따라서 삼각함수의 두 번째 순서 근사치까지(즉, 각 삼각함수의 테일러 시리즈 확장에서 두 번째 항까지만)

여기서 은 논의 중인 광학 시스템의 광학 축으로서 파형 벡터 k와 z축 사이의 각도(라디안)이다.

결과적으로.

그리고

근파파파식식식

어디에

데카르트 좌표계의 가로 라플라스 연산자다. 근축파 방정식의 도출에서는 다음과 같은 근사를 사용한다.

  • 작기 때문에 2{\의 용어는 무시된다.
  • y 항은 2k {\displaystyle }(또는 z {z가 있는 항보다 훨씬 작기 때문에 이 두 항은 무시된다.
  • so a term with {은(는) 무시된다. 천천히 변화하는 엔벨롭 근사치로, 파동 )의 진폭이나 엔벨롭이 파동 = 2 에 비해 서서히 변화하고 있음을 의미한다

사산

위의 방정식은 원점(x,y,z)의 장이 벡터(x,y,z)에 평행하게 전파되는 평면파 성분(kx,ky,k,kz)에만 기인하고 평면이 (x,y,z)에서 위상전선에 접하는 것을 보여주기 위해 원점(standing phase method)에서 무증상적으로 평가할 수 있다. 이 과정의 수학적인 세부사항은 스콧[1998]이나 스콧[1990]에서 찾을 수 있다. 위의 표현식에 정지 위상 통합을 수행한 결과는 다음과 같다.

((x) 한다는 것을 서 (x,y,z)는 (x,y,z)의 가(x,y,z)의 가(x,y,z)의 가(x,y,z)의 가(x,y,z)에 비례한다.

그리고

다른 방법으로 언급하면, 평면장 분포의 방사선 패턴은 해당 선원 분포의 FT이다(Huygens-Fresnel 원리 참조, 여기서 Green의 함수 접근법을 사용하여 동일한 방정식을 개발한다). 이것은 평면파가 아니라는 점에 유의하십시오. - 방사상 의존성은 구면파(크기 및 위상)이며, 국소 진폭은 해당 원거리장각에서 소스 평면 분포의 FT이다. 평면파 스펙트럼은 필드가 먼 거리에서 평면파처럼 행동한다고 말하는 것과 무관하지 않다.

위의 방정식(2.2)은 원거리에서 공간 대역폭(한편)과 각도 대역폭(다른 편) 사이의 연결을 만드는 데 중요하다. "멀리 필드"라는 용어는 보통 우리가 꽤 잘 정의된 위상 중심과 함께 수렴하거나 이탈하는 구형파를 말하는 것을 의미한다는 점에 유의한다. 씬 렌즈의 로우패스 필터링 특성을 이해하려면 원거리 영역의 공간 대역폭과 각도 대역폭의 연결이 필수적이다. 원거리 영역 정의 조건에 대해서는 섹션 5.1.3을 참조한다.

일단 각도 대역폭의 개념이 이해되면, 광학 과학자는 공간 영역과 스펙트럼 영역 사이를 "뒤로 움직이며" 공간 영역 또는 광학 고려만으로 일반적으로 그렇게 쉽게 이용할 수 없는 통찰력을 빠르게 얻을 수 있다. 예를 들어, 가장자리 각도를 지나 첫 번째 렌즈(이 가장자리 각도는 광학 시스템의 대역폭을 설정)에 있는 모든 소스 대역폭은 처리할 시스템에 의해 포착되지 않는다.

참고로 전자공학자들은 고정 위상 통합을 수반하지 않는 원거리 전기장 계산을 위한 대체 수단을 고안해 냈다. 그들은 보통 M이 가리키는 "정확한 자전류"라고 알려진 개념을 고안해냈고, 다음과 같이 정의했다.

= E ~\

이 방정식에서는 z-방향 점의 단위 벡터가 원거리장 계산이 이루어지는 반공간으로 들어간다고 가정한다. 이러한 등가 자기 전류는 무한 평면 인터페이스의 경우, J가 "이미징"되는 반면 가공 자기 전류가 개구부 전기장의 두 배로부터 얻어지는 등가 원리를 사용하여 얻는다(Scott [1998] 참조). 그런 다음 전류가 방출하는 자기장에 대한 방정식과 유사한 방정식을 사용하여 자기 전류를 계산한다. 이와 같이 조리개 전기장의 관점에서 복사 전기장에 대한 벡터 방정식을 얻으며, 파생은 정지상 아이디어를 사용할 필요가 없다.

푸리에 opticsfacturing)의 기초: 푸리에의 기(氣)

푸리에 광학(Fourier 광학)은 카메라, 망원경, 현미경과 같은 초점화된 영상 시스템의 분석과 설계에 일반적으로 사용되는 일반적인 광학과는 다소 다르다. 레이 광학(Ray optics)은 우리 대부분이 생활에서 접하는 광학의 첫 번째 유형이다. 개념화 및 이해는 간단하며, 일반적인 광학 소자에 대한 기본적인 이해를 얻는 데 매우 효과적이다. 불행하게도, 광학 광학 장치는 일반적으로 초점이 맞지 않는 시스템인 푸리에 광학 시스템의 작동을 설명하지 않는다. 레이 광학(Ray optics)은 파동 광학의 부분집합(용어에서는 파동 광학의 "무증파 제로 파장 한계")이므로 적용성이 제한된다. 우리는 그것이 언제 유효한지 그리고 그렇지 않은지를 알아야 한다 - 그리고 지금은 그렇지 않은 때들 중 하나이다. 현재 우리의 과제를 위해서는 광학 현상에 대한 이해를 넓혀서 광학 장이 맥스웰 방정식의 해결책으로 보이는 파동 광학을 포괄해야 한다. 이 보다 일반적인 파형 광학 장치는 푸리에 광학 장치의 작동을 정확하게 설명한다.

이 절에서는 맥스웰 방정식으로 돌아가는 것이 아니라 맥스웰 방정식(Scott [1998])에서 한 단계 상향된 균일한 헬름홀츠 방정식(소스 없는 매체에서 유효함)으로 시작할 것이다. 이 방정식을 통해, 우리는 얼마나 무한한 균일 평면파가 자유 공간에서 하나의 필드 솔루션을 구성하는지를 보여줄 것이다. 이러한 균일한 평면파는 푸리에 광학을 이해하는 기초를 형성한다.

평면파 스펙트럼 개념은 푸리에 광학(Fourier Optics)의 기본 기반이다. 평면파 스펙트럼은 균일한 평면파의 연속 스펙트럼이며, 원필드 위상 전방의 모든 접선 지점에 대해 스펙트럼에는 하나의 평면파 성분이 있다. 이 평면파 성분의 진폭은 접선점에서 광학장의 진폭일 것이다. 다시 말하지만, 이는 광원의 최대 선형 범위인 범위 = 2 D2 / λ로 정의되는 먼 영역에서만 해당된다. 여기서 D는 광원의 최대 선형 범위이고 λ은 파장이다(Scott [1998]). 평면파 스펙트럼은 종종 특정 유형의 주기적 그라프트에 대해 불연속적인 것으로 간주되지만, 실제로는 어떤 물리적 장치도 실제 라인 스펙트럼을 생성하는 데 필요한 무한 범위를 가질 수 없기 때문에 그라프트의 스펙트럼도 연속적이다.

전기 신호의 경우처럼 대역폭은 이미지가 얼마나 정교하게 상세한지 측정하는 척도인데, 디테일이 미세할수록 이미지를 나타내는 데 필요한 대역폭이 커진다. DC 전기 신호는 일정하며 진동이 없다. 광학( z 축과 평행하게 전파되는 평면 파형은 x-y 평면에서 일정한 값을 가지므로 전기 신호의 (정수) DC 구성 요소와 유사하다. 전기 신호의 대역폭은 신호의 스펙트럼에 존재하는 최고 주파수 및 최저 주파수 간의 차이와 관련이 있다. 광학 시스템의 경우 대역폭은 공간 주파수 내용(공간 대역폭)과도 관련이 있지만, 2차적인 의미도 가지고 있다. 또한 광축으로부터 해당 평면파가 얼마나 기울어져 있는가를 측정하여 이러한 유형의 대역폭을 각도 대역폭이라고도 한다. 전기 회로에서 짧은 펄스를 생성하려면 주파수 대역폭이 더 많이 필요하고, 광학 시스템에서 날카로운 부분을 생성하려면 각도(또는 공간 주파수) 대역폭이 더 많이 필요하다(점 확산 기능에 관한 논의 참조).

평면파 스펙트럼은 직사각형 좌표에서 균일한 전자기파 방정식에 대한 고유함수 또는 "자연모드" 솔루션으로 자연적으로 발생한다(원자가 없는 매체에서 맥스웰 방정식 또는 스콧 [1998]에서 파동 방정식을 도출하는 전자기 방사도 참조). 주파수 영역에서 t의 가정된 시간 규약을 가진동종 전자파 방정식은 헬름홀츠 방정식으로 알려져 있으며 다음과 같은 형태를 취한다.

여기서 u = x, y, z 및 k = 2π/λ은 매질의 wavenumber이다.

고유 기능(자연 모드) 솔루션: 배경 및 개요

미분 방정식의 경우, 행렬 방정식의 경우처럼 방정식의 우측이 0일 때마다(즉, 강제함수/강력벡터가 0일 때) 이 방정식은 고유함수 해법으로 응용수학에서 알려진 비극성 해법(non-trivial solution)을 "자연 모드" 해법으로 물리학과 전기아에서 여전히 인정할 수 있다.l 회로 이론은 "영점 반응"이다. 이것은 광범위한 물리적 학문을 아우르는 개념이다. 공명 자연 모드의 일반적인 물리적 예로는 현악기(1D), 타악기(2D) 또는 구 타코마 협곡교(3D)의 공명 진동 모드가 포함될 수 있다. 자연 모드를 전파하는 예로는 도파관 모드, 광섬유 모드, 솔리톤블로흐 파형이 포함될 수 있다. 무한 균질 매체는 고려 중인 좌표계에 따라 직사각형, 원형 및 구형 고조파 용액을 헬름홀츠 방정식에 허용한다. 이 글에서 연구할 전파 비행기 파동은 아마도 어떤 종류의 매체에서 발견되는 가장 단순한 전파 파동일 것이다.

위의 헬름홀츠 방정식(2.0) 사이에는 현저한 유사성이 있으며, 이 등식은 다음과 같이 기록될 수 있다.

제곱 행렬의 고유값/ 고유 벡터에 대한 일반적인 방정식 A,

- ) x=

특히 스칼라 라플라시안, {\ \}}과 매트릭스 모두 각각의 함수/벡터 공간에 대한 선형 연산자(두 번째 방정식의 마이너스 부호는 모든 면에서 중요하지 않으며, 그러나 첫 번째 방정식의 플러스 부호는 유의하다)이다. 이 두 방정식에 대한 고유함수와 고유벡터 용액 모두 고려 중인 함수/벡터 공간에 걸쳐 있는 직교 함수/벡터 세트를 산출하는 경우가 종종 있다는 점을 유의할 필요가 있다. 관심 있는 독자는 레전드르 다항식, 체비셰프 다항식, 헤르미테 다항식 등 다른 종류의 직교 고유 기능을 발생시키는 다른 기능 선형 연산자를 조사할 수 있다.

매트릭스 사례에서 {\}은(는) 매트릭스의 결정 인자를 0으로 설정하여 찾을 수 있다. 즉, 매트릭스가 역행하지 않는 위치를 찾아낼 수 있다. 유한 행렬은 한정된 수의 고유값/유전 벡터만 가지고 있는 반면, 선형 연산자는 무한히 많은 수의 고유값/유전적 특성(제한된 영역) 또는 무한(연속적) 스펙트럼을 무한대로 가질 수 있다.

주기적인 볼륨의 대역 계산과 같은 특정 물리학 응용에서, 매트릭스의 원소들은 주파수 및 와바넘버의 매우 복잡한 함수일 경우가 많으며, 매트릭스는 주파수와 와바넘버의 대부분의 조합에 대해 비음향적일 것이지만, 특정한 조합에도 단수가 될 것이다.s. 어떤 주파수 조합과 와븐넘버 조합이 매트릭스의 결정 인자를 0으로 유도하는지 확인함으로써 매체의 전파 특성을 결정할 수 있다. 이러한 유형의 관계는 빈도와 빈도 사이에 분산 관계라고 알려져 있으며, 일부 물리적 시스템은 많은 종류의 분산 관계를 인정할 수 있다. 전자석의 예는 일반 도파관으로서, 각각 고유한 도파관 모드와 연관된 수많은 분산 관계를 인정할 수 있다. 도파관 각 전파모드는 도파관 내 맥스웰 방정식에 대한 고유기능 솔루션(또는 고유모드 솔루션)으로 알려져 있다. 자유 공간은 또한 고유 모드(자연 모드) 솔루션(평면파로 더 흔히 알려져 있음)을 허용하지만, 주어진 주파수에 대해 자유 공간은 연속적인 모달 스펙트럼을 허용하는 반면, 도파관에는 이산 모드 스펙트럼이 있다는 구별을 가지고 있다. 이 경우 분산 관계는 1.2절과 같이 선형이다.

K-공간

분리 조건,

3차원 구성 공간의 유클리드 메트릭에 대한 방정식과 동일한 이 방정식은 3차원 "k-space"의 k-벡터 개념으로, 직사각형 좌표로 정의(면파 전파용)를 다음과 같이 제안한다.

그리고 구면 좌표계에서는 다음과 같이 한다.

다음 절에서 이러한 구형 좌표계 관계를 사용할 것이다.

k-space의 개념은 특히 반도체 재료의 결정학이나 대역 이론과 같은 주기적인 볼륨 연구에서는 공학이나 물리학의 많은 분야의 중심이다.

2차원 푸리에 변환

분석 방정식(함수의 스펙트럼 계산):

합성 방정식(스펙트럼에서 함수를 재구성):

참고: 정규화 계수: ( 2 ) 2 각도 주파수(라디안)를 사용할 때마다 존재하지만 일반 주파수(주기)를 사용할 때는 존재하지 않는다.

광학 시스템: 일반적인 개요 및 전기 신호 처리 시스템과의 유사성

광학 시스템은 입력면과 출력면으로 구성되며 입력에서 형성된 영상 f를 출력에서 형성된 다른 영상 g로 변환하는 구성 요소 집합으로 구성된다. 출력 영상은 광학적 임펄스 응답 h(집중 광학 시스템에 대해 점-스프레드 기능으로 알려져 있음)로 입력 영상을 경련시켜 입력 영상과 관련된다. 임펄스 응답은 광학 시스템의 입력-출력 동작을 고유하게 정의한다. 관례에 따라 시스템의 광축은 z축으로 취해진다. 그 결과 두 영상과 임펄스 응답은 모두 가로 좌표인 x와 y의 기능이 된다.

광학 영상 시스템의 임펄스 응답은 이상적인 수학적 포인트 광원이 입력면(보통 축)에 놓일 때 생성되는 출력면장이다. 실제로 정확한 충동 반응을 결정하기 위해 이상적인 포인트 소스를 가질 필요는 없다. 이것은 시스템의 대역폭 밖에 놓여 있는 어떤 소스 대역폭도 어차피 중요하지 않을 것이기 때문에(광학 시스템에 의해 포착될 수도 없기 때문에), 따라서 충동 반응을 결정하는 데 필요하지 않기 때문이다. 소스는 광학 시스템만큼의 (사각형) 대역폭만 있으면 된다.

광학 시스템은 일반적으로 두 가지 다른 범주 중 하나로 분류된다. 첫 번째는 일반적인 초점 광학 영상 시스템인데, 입력 평면에서 객체 평면이라고 하고 출력 평면을 영상 평면이라고 한다. 영상 평면의 필드는 객체 평면에 있는 필드의 고품질 재생산이 되고자 한다. 이 경우 광학계의 임펄스 응답은 입력면의 임펄스 위치에 해당하는 출력면의 동일한 위치(또는 선형적으로 스케일링된 위치)에서 2D 델타 함수의 근사치를 위해 필요하다. 실제 충동 반응은 일반적으로 사용되는 빛의 파장 순서에 따라 반경이 달라지는 에어리 함수와 유사하다. 이 경우, 물체 평면의 수학적 빛의 지점이 영상 평면의 에어리 함수로 퍼져 나갔기 때문에, 일반적으로 임펄스 응답을 점 확산함수라고 한다.

두 번째 유형은 광학 영상 처리 시스템으로 입력면 영역의 중요한 형상이 위치하여 격리된다. 이 경우 시스템의 임펄스 응답은 입력면 필드에서 검색되고 있는 형상의 근접 복제본(사진)이 되어 입력면 필드에 대한 임펄스 응답(원하는 형상의 영상)이 출력면의 형상 위치에 밝은 점을 생성하도록 한다. 본 섹션의 주제가 되는 것은 후자의 광학 영상 처리 시스템이다. 5.2절은 이 절에서 설명한 광학 이미지 처리 작업의 하드웨어 구현을 나타낸다.

입력면

입력 평면은 z = 0과 같은 모든 점의 로커스로 정의된다. 따라서 입력 이미지 f는

출력 평면

출력 평면은 z = d와 같은 모든 점의 로커스로 정의된다. 따라서 출력 이미지 g는

임펄스 응답 기능에 대한 입력 기능의 2D 콘볼루션

즉,

경보 판독기는 위의 적분자가 암묵적으로 임펄스 반응이 입력면 내 빛의 충동 위치(x',y')의 기능이 아니라고 가정한다는 점에 주목한다(이러한 경우가 아니라면 이러한 유형의 경련이 가능하지 않을 것이다). 이 속성은 시프트 침입(Scott [1998])으로 알려져 있다. 어떤 광학 시스템도 완벽하게 변화하지 않는다: 이상적인 수학적 빛의 지점이 시신경 축에서 떨어져서 스캐닝됨에 따라, 일탈은 결국 충동 반응을 저하시킬 것이다. (집중 영상 시스템에서는 혼수상태로 알려져 있다.) 그러나 고품질 광학 시스템은 입력 평면의 특정 영역에 걸쳐 "충동 불변성"인 경우가 많으므로, 우리는 충동 반응을 입력 평면 좌표와 출력 평면 좌표 사이의 차이만의 함수로 간주하고, 따라서 위의 방정식을 무임승차로 사용할 수 있다.

또한 이 방정식은 단위 배율을 가정한다. 배율이 있으면, eqn. (4.1)이 된다.

기본적으로 충격 반응 함수 hM()를 x'에서 x=Mx'로 변환한다. (4.2)에서 hM()는 유사하고 확대되지 않은 시스템의 임펄스 반응 함수 h()를 확대하여 hM(x,y) =h(x/M,y/M)가 되도록 한다.

콘볼루션 방정식의 도출

2차원으로의 확장은 인과관계가 시간영역에는 존재하지만 공간영역에는 존재하지 않는다는 차이를 제외하고는 사소한 것이다. 인과관계는 시간 t'에 가해지는 충격으로 인해 전기 시스템의 충격 응답 h(t - t')가 반드시 t - t < 0과 같은 시간 동안 0이어야 함을 의미한다.

시스템 응답의 콘볼루션 표현을 얻으려면 Dirac 델타 함수이동 특성을 사용하여 입력 신호를 임펄스 함수의 열 위에 대한 가중 중첩으로 나타낼 필요가 있다.

그런 다음 고려 중인 시스템이 선형이라고 가정한다. 즉, 두 개의 다른 입력(아마도 두 개의 다른 시간에)으로 인한 시스템의 출력은 개별적으로 도입되었을 때 두 입력에 대한 시스템의 개별 출력의 합계라고 한다. 따라서 광학 시스템은 비선형 재료나 활성 장치(가능성이 극히 높은 선형 활성 장치 제외)를 포함하지 않을 수 있다. 단일 델타 함수 입력에 대한 시스템의 출력은 시스템의 충격 응답인 h(t - t')로 정의된다. 그리고, 우리의 선형성 가정(즉, 펄스열 입력에 대한 시스템의 출력이 각 개별 펄스로 인한 출력의 합계라는 가정)에 의해, 이제 우리는 일반 입력 함수 f(t)가 다음과 같이 출력을 생성한다고 말할 수 있다.

여기서 h(t - t')는 시간 t'에 적용되는 델타 함수 입력 Δ(t - t')에 대한 선형 시스템의 (iiii) 응답이다. 여기서 위의 콘볼루션 방정식이 나온다. 콘볼루션 방정식은 임의 입력에 대한 응답을 직접 찾으려는 것보다 델타 함수 입력에 대한 시스템의 응답을 찾은 다음 위에서 콘볼루션을 수행하는 것이 훨씬 쉽기 때문에 유용하다. 또한 충동 응답(시간 또는 주파수 영역 중 하나)은 대개 시스템의 관련 우수성에 대한 통찰력을 제공한다. 대부분의 렌즈의 경우, 포인트 스프레드 기능(PSF)은 평가 목적으로 상당히 일반적인 공로상이다.

Huygens-Fresnel 원리 또는 Stratton-Chu 공식과 관련하여 동일한 논리가 사용되는데, 여기서 "충돌 반응"은 시스템의 그린 함수라고 한다. 그래서 선형 광학 시스템의 공간 영역 작동은 이런 식으로 Huygens-Fresnel 원리와 유사하다.

System transfer function

If the last equation above is Fourier transformed, it becomes:

where

is the spectrum of the output signal
is the system transfer function
is the spectrum of the input signal

In like fashion, (4.1) may be Fourier transformed to yield:

The system transfer function, . In optical imaging this function is better known as the optical transfer function (Goodman).

Once again it may be noted from the discussion on the Abbe sine condition, that this equation assumes unit magnification.

This equation takes on its real meaning when the Fourier transform, is associated with the coefficient of the plane wave whose transverse wavenumbers are . Thus, the input-plane plane wave spectrum is transformed into the output-plane plane wave spectrum through the multiplicative action of the system transfer function. It is at this stage of understanding that the previous background on the plane wave spectrum becomes invaluable to the conceptualization of Fourier optical systems.

Applications of Fourier optics principles

Fourier optics is used in the field of optical information processing, the staple of which is the classical 4F processor.

The Fourier transform properties of a lens provide numerous applications in optical signal processing such as spatial filtering, optical correlation and computer generated holograms.

Fourier optical theory is used in interferometry, optical tweezers, atom traps, and quantum computing. Concepts of Fourier optics are used to reconstruct the phase of light intensity in the spatial frequency plane (see adaptive-additive algorithm).

Fourier transforming property of lenses

If a transmissive object is placed one focal length in front of a lens, then its Fourier transform will be formed one focal length behind the lens. Consider the figure to the right (click to enlarge)

On the Fourier transforming property of lenses

In this figure, a plane wave incident from the left is assumed. The transmittance function in the front focal plane (i.e., Plane 1) spatially modulates the incident plane wave in magnitude and phase, like on the left-hand side of eqn. (2.1) (specified to z=0), and in so doing, produces a spectrum of plane waves corresponding to the FT of the transmittance function, like on the right-hand side of eqn. (2.1) (for z>0). The various plane wave components propagate at different tilt angles with respect to the optic axis of the lens (i.e., the horizontal axis). The finer the features in the transparency, the broader the angular bandwidth of the plane wave spectrum. We'll consider one such plane wave component, propagating at angle θ with respect to the optic axis. It is assumed that θ is small (paraxial approximation), so that

and

and

In the figure, the plane wave phase, moving horizontally from the front focal plane to the lens plane, is

and the spherical wave phase from the lens to the spot in the back focal plane is:

and the sum of the two path lengths is f (1 + θ2/2 + 1 - θ2/2) = 2f i.e., it is a constant value, independent of tilt angle, θ, for paraxial plane waves. Each paraxial plane wave component of the field in the front focal plane appears as a point spread function spot in the back focal plane, with an intensity and phase equal to the intensity and phase of the original plane wave component in the front focal plane. In other words, the field in the back focal plane is the Fourier transform of the field in the front focal plane.

All FT components are computed simultaneously - in parallel - at the speed of light. As an example, light travels at a speed of roughly 1 ft (0.30 m). / ns, so if a lens has a 1 ft (0.30 m). focal length, an entire 2D FT can be computed in about 2 ns (2 x 10−9 seconds). If the focal length is 1 in., then the time is under 200 ps. No electronic computer can compete with these kinds of numbers or perhaps ever hope to, although supercomputers may actually prove faster than optics, as improbable as that may seem. However, their speed is obtained by combining numerous computers which, individually, are still slower than optics. The disadvantage of the optical FT is that, as the derivation shows, the FT relationship only holds for paraxial plane waves, so this FT "computer" is inherently bandlimited. On the other hand, since the wavelength of visible light is so minute in relation to even the smallest visible feature dimensions in the image i.e.,

(for all kx, ky within the spatial bandwidth of the image, so that kz is nearly equal to k), the paraxial approximation is not terribly limiting in practice. And, of course, this is an analog - not a digital - computer, so precision is limited. Also, phase can be challenging to extract; often it is inferred interferometrically.

Optical processing is especially useful in real time applications where rapid processing of massive amounts of 2D data is required, particularly in relation to pattern recognition.

Object truncation and Gibbs phenomenon

The spatially modulated electric field, shown on the left-hand side of eqn. (2.1), typically only occupies a finite (usually rectangular) aperture in the x,y plane. The rectangular aperture function acts like a 2D square-top filter, where the field is assumed to be zero outside this 2D rectangle. The spatial domain integrals for calculating the FT coefficients on the right-hand side of eqn. (2.1) are truncated at the boundary of this aperture. This step truncation can introduce inaccuracies in both theoretical calculations and measured values of the plane wave coefficients on the RHS of eqn. (2.1).

Whenever a function is discontinuously truncated in one FT domain, broadening and rippling are introduced in the other FT domain. A perfect example from optics is in connection with the point spread function, which for on-axis plane wave illumination of a quadratic lens (with circular aperture), is an Airy function, J1(x)/x. Literally, the point source has been "spread out" (with ripples added), to form the Airy point spread function (as the result of truncation of the plane wave spectrum by the finite aperture of the lens). This source of error is known as Gibbs phenomenon and it may be mitigated by simply ensuring that all significant content lies near the center of the transparency, or through the use of window functions which smoothly taper the field to zero at the frame boundaries. By the convolution theorem, the FT of an arbitrary transparency function - multiplied (or truncated) by an aperture function - is equal to the FT of the non-truncated transparency function convolved against the FT of the aperture function, which in this case becomes a type of "Greens function" or "impulse response function" in the spectral domain. Therefore, the image of a circular lens is equal to the object plane function convolved against the Airy function (the FT of a circular aperture function is J1(x)/x and the FT of a rectangular aperture function is a product of sinc functions, sin x/x).

Fourier analysis and functional decomposition

Even though the input transparency only occupies a finite portion of the x-y plane (Plane 1), the uniform plane waves comprising the plane wave spectrum occupy the entire x-y plane, which is why (for this purpose) only the longitudinal plane wave phase (in the z-direction, from Plane 1 to Plane 2) must be considered, and not the phase transverse to the z-direction. It is of course, very tempting to think that if a plane wave emanating from the finite aperture of the transparency is tilted too far from horizontal, it will somehow "miss" the lens altogether but again, since the uniform plane wave extends infinitely far in all directions in the transverse (x-y) plane, the planar wave components cannot miss the lens.

This issue brings up perhaps the predominant difficulty with Fourier analysis, namely that the input-plane function, defined over a finite support (i.e., over its own finite aperture), is being approximated with other functions (sinusoids) which have infinite support (i.e., they are defined over the entire infinite x-y plane). This is unbelievably inefficient computationally, and is the principal reason why wavelets were conceived, that is to represent a function (defined on a finite interval or area) in terms of oscillatory functions which are also defined over finite intervals or areas. Thus, instead of getting the frequency content of the entire image all at once (along with the frequency content of the entire rest of the x-y plane, over which the image has zero value), the result is instead the frequency content of different parts of the image, which is usually much simpler. Unfortunately, wavelets in the x-y plane don't correspond to any known type of propagating wave function, in the same way that Fourier's sinusoids (in the x-y plane) correspond to plane wave functions in three dimensions. However, the FTs of most wavelets are well known and could possibly be shown to be equivalent to some useful type of propagating field.

On the other hand, Sinc functions and Airy functions - which are not only the point spread functions of rectangular and circular apertures, respectively, but are also cardinal functions commonly used for functional decomposition in interpolation/sampling theory [Scott 1990] - do correspond to converging or diverging spherical waves, and therefore could potentially be implemented as a whole new functional decomposition of the object plane function, thereby leading to another point of view similar in nature to Fourier optics. This would basically be the same as conventional ray optics, but with diffraction effects included. In this case, each point spread function would be a type of "smooth pixel," in much the same way that a soliton on a fiber is a "smooth pulse."

Perhaps a lens figure-of-merit in this "point spread function" viewpoint would be to ask how well a lens transforms an Airy function in the object plane into an Airy function in the image plane, as a function of radial distance from the optic axis, or as a function of the size of the object plane Airy function. This is somewhat like the point spread function, except now we're really looking at it as a kind of input-to-output plane transfer function (like MTF), and not so much in absolute terms, relative to a perfect point. Similarly, Gaussian wavelets, which would correspond to the waist of a propagating Gaussian beam, could also potentially be used in still another functional decomposition of the object plane field.

Far-field range and the 2D2 / λ criterion

In the figure above, illustrating the Fourier transforming property of lenses, the lens is in the near field of the object plane transparency, therefore the object plane field at the lens may be regarded as a superposition of plane waves, each one of which propagates at some angle with respect to the z-axis. In this regard, the far-field criterion is loosely defined as: Range = 2 D2 / λ where D is the maximum linear extent of the optical sources and λ is the wavelength (Scott [1998]). The D of the transparency is on the order of cm (10−2 m) and the wavelength of light is on the order of 10−6 m, therefore D/λ for the whole transparency is on the order of 104. This times D is on the order of 102 m, or hundreds of meters. On the other hand, the far field distance from a PSF spot is on the order of λ. This is because D for the spot is on the order of λ, so that D/λ is on the order of unity; this times D (i.e., λ) is on the order of λ (10−6 m).

Since the lens is in the far field of any PSF spot, the field incident on the lens from the spot may be regarded as being a spherical wave, as in eqn. (2.2), not as a plane wave spectrum, as in eqn. (2.1). On the other hand, the lens is in the near field of the entire input plane transparency, therefore eqn. (2.1) - the full plane wave spectrum - accurately represents the field incident on the lens from that larger, extended source.

Lens as a low-pass filter

A lens is basically a low-pass plane wave filter (see Low-pass filter). Consider a "small" light source located on-axis in the object plane of the lens. It is assumed that the source is small enough that, by the far-field criterion, the lens is in the far field of the "small" source. Then, the field radiated by the small source is a spherical wave which is modulated by the FT of the source distribution, as in eqn. (2.2), Then, the lens passes - from the object plane over onto the image plane - only that portion of the radiated spherical wave which lies inside the edge angle of the lens. In this far-field case, truncation of the radiated spherical wave is equivalent to truncation of the plane wave spectrum of the small source. So, the plane wave components in this far-field spherical wave, which lie beyond the edge angle of the lens, are not captured by the lens and are not transferred over to the image plane. Note: this logic is valid only for small sources, such that the lens is in the far field region of the source, according to the 2 D2 / λ criterion mentioned previously. If an object plane transparency is imagined as a summation over small sources (as in the Whittaker–Shannon interpolation formula, Scott [1990]), each of which has its spectrum truncated in this fashion, then every point of the entire object plane transparency suffers the same effects of this low pass filtering.

Loss of the high (spatial) frequency content causes blurring and loss of sharpness (see discussion related to point spread function). Bandwidth truncation causes a (fictitious, mathematical, ideal) point source in the object plane to be blurred (or, spread out) in the image plane, giving rise to the term, "point spread function." Whenever bandwidth is expanded or contracted, image size is typically contracted or expanded accordingly, in such a way that the space-bandwidth product remains constant, by Heisenberg's principle (Scott [1998] and Abbe sine condition).

Coherence and Fourier transforming

While working in the frequency domain, with an assumed ejωt (engineering) time dependence, coherent (laser) light is implicitly assumed, which has a delta function dependence in the frequency domain. Light at different (delta function) frequencies will "spray" the plane wave spectrum out at different angles, and as a result these plane wave components will be focused at different places in the output plane. The Fourier transforming property of lenses works best with coherent light, unless there is some special reason to combine light of different frequencies, to achieve some special purpose.

Hardware implementation of the system transfer function: The 4F correlator

The theory on optical transfer functions presented in section 4 is somewhat abstract. However, there is one very well known device which implements the system transfer function H in hardware using only 2 identical lenses and a transparency plate - the 4F correlator. Although one important application of this device would certainly be to implement the mathematical operations of cross-correlation and convolution, this device - 4 focal lengths long - actually serves a wide variety of image processing operations that go well beyond what its name implies. A diagram of a typical 4F correlator is shown in the figure below (click to enlarge). This device may be readily understood by combining the plane wave spectrum representation of the electric field (section 2) with the Fourier transforming property of quadratic lenses (section 5.1) to yield the optical image processing operations described in section 4.

4F Correlator

The 4F correlator is based on the convolution theorem from Fourier transform theory, which states that convolution in the spatial (x,y) domain is equivalent to direct multiplication in the spatial frequency (kx, ky) domain (aka: spectral domain). Once again, a plane wave is assumed incident from the left and a transparency containing one 2D function, f(x,y), is placed in the input plane of the correlator, located one focal length in front of the first lens. The transparency spatially modulates the incident plane wave in magnitude and phase, like on the left-hand side of eqn. (2.1), and in so doing, produces a spectrum of plane waves corresponding to the FT of the transmittance function, like on the right-hand side of eqn. (2.1). That spectrum is then formed as an "image" one focal length behind the first lens, as shown. A transmission mask containing the FT of the second function, g(x,y), is placed in this same plane, one focal length behind the first lens, causing the transmission through the mask to be equal to the product, F(kx,ky) × G(kx,ky). This product now lies in the "input plane" of the second lens (one focal length in front), so that the FT of this product (i.e., the convolution of f(x,y) and g(x,y)), is formed in the back focal plane of the second lens.

If an ideal, mathematical point source of light is placed on-axis in the input plane of the first lens, then there will be a uniform, collimated field produced in the output plane of the first lens. When this uniform, collimated field is multiplied by the FT plane mask, and then Fourier transformed by the second lens, the output plane field (which in this case is the impulse response of the correlator) is just our correlating function, g(x,y). In practical applications, g(x,y) will be some type of feature which must be identified and located within the input plane field (see Scott [1998]). In military applications, this feature may be a tank, ship or airplane which must be quickly identified within some more complex scene.

The 4F correlator is an excellent device for illustrating the "systems" aspects of optical instruments, alluded to in section 4 above. The FT plane mask function, G(kx,ky) is the system transfer function of the correlator, which we'd in general denote as H(kx,ky), and it is the FT of the impulse response function of the correlator, h(x,y) which is just our correlating function g(x,y). And, as mentioned above, the impulse response of the correlator is just a picture of the feature we're trying to find in the input image. In the 4F correlator, the system transfer function H(kx,ky) is directly multiplied against the spectrum F(kx,ky) of the input function, to produce the spectrum of the output function. This is how electrical signal processing systems operate on 1D temporal signals.

Image Restoration

Image blurring by a point spread function is studied extensively in optical information processing, one way to alleviate the blurring is to adopt Wiener Filter. For example, assume that is the intensity distribution from an incoherent object, is the intensity distribution of its image which is blurred by a space-invariant point-spread function and a noise introduced in the detection process:

The goal of image restoration is to find a linear restoration filter that minimize the mean-squared error between the true distribution and the estimation . That is , to minimize

The solution of this optimization problem is Wiener filter:

,

where are the power spectral densities of the point-spread function, the object and the noise.


The recording geometry

Ragnarsson proposed a method to realize Wiener restoration filters optically by holographic technique like setup shown in the figure.[1][2] The derivation of the function of the setup is described as follows.

Assume there is a transparency as the recording plane and an impulse emitted from a point source S. The wave of impulse is collimated by lens L1, forming a distribution equal to the impulse response . Then the distribution is then split into two parts:

  1. The upper portion is first focused (i.e., Fourier transformed) by a lens L2 to a spot in the front focal plan of lens L3, forming a virtual point source generating a spherical wave. The wave is then collimated by lens L3 and produces a tilted plane wave with the form at the recording plane.
  2. The lower portion is directly collimated by lens L3, yielding an amplitude distribution .

Therefore, the total intensity distribution is

Assume has an amplitude distribution and a phase distribution such that

,

then we can rewritten intensity as follows:

Note that for the point at the origin of the film plane (), the recorded wave from the lower portion should be much stronger than that from the upper portion because the wave passing through the lower path is focused, which leads to the relationship .

In Ragnarsson' s work, this method is based on the following postulates:

  1. Assume there is a transparency, with its amplitude transmittance proportional to , that has recorded the known impulse response of the blurred system.
  2. The maximum phase shift introduced by the filter is much smaller than radians so that .
  3. The phase shift of the transparency after bleaching is linearly proportional to the silver density present before bleaching.
  4. The density is linearly proportional to the logarithm of exposure .
  5. The average exposure is much stronger than varying exposure .

By these postulates, we have the following relationship:

.

Finally, we get a amplitude transmittance with the form of a Wiener filter:

.


Afterword: Plane wave spectrum within the broader context of functional decomposition

Electrical fields can be represented mathematically in many different ways. In the Huygens–Fresnel or Stratton-Chu viewpoints, the electric field is represented as a superposition of point sources, each one of which gives rise to a Green's function field. The total field is then the weighted sum of all of the individual Green's function fields. That seems to be the most natural way of viewing the electric field for most people - no doubt because most of us have, at one time or another, drawn out the circles with protractor and paper, much the same way Thomas Young did in his classic paper on the double-slit experiment. However, it is by no means the only way to represent the electric field, which may also be represented as a spectrum of sinusoidally varying plane waves. In addition, Frits Zernike proposed still another functional decomposition based on his Zernike polynomials, defined on the unit disc. The third-order (and lower) Zernike polynomials correspond to the normal lens aberrations. And still another functional decomposition could be made in terms of Sinc functions and Airy functions, as in the Whittaker–Shannon interpolation formula and the Nyquist–Shannon sampling theorem. All of these functional decompositions have utility in different circumstances. The optical scientist having access to these various representational forms has available a richer insight to the nature of these marvelous fields and their properties. These different ways of looking at the field are not conflicting or contradictory, rather, by exploring their connections, one can often gain deeper insight into the nature of wave fields.

Functional decomposition and eigenfunctions

The twin subjects of eigenfunction expansions and functional decomposition, both briefly alluded to here, are not completely independent. The eigenfunction expansions to certain linear operators defined over a given domain, will often yield a countably infinite set of orthogonal functions which will span that domain. Depending on the operator and the dimensionality (and shape, and boundary conditions) of its domain, many different types of functional decompositions are, in principle, possible.

See also

References

  1. ^ Ragnarsson, SI. "Physica Scripta A new Holographic Method of Generating a High Efficiency, Extended Range Spatial Filter with Application to Restoration of Defocussed Images". Physica Scripta.
  2. ^ Goodman, Joseph W. (2005). Introduction to Fourier Optics. Roberts and Company Publishers. ISBN 978-0-9747077-2-3.

External links