양자화 인식 광학 동상 연산으로 AI와 과학 시뮬레이션 가속
초록
본 논문은 리튬 나이오베이트(TFLN) 기반 동상 광학 회로와 채널 등화 기법을 결합한 혼합 정밀도 프레임워크를 제안한다. 9‑bit 진폭·위상 디코플링을 이용해 6‑bit 복소수 곱셈을 128 GS/s 속도로 수행하고, 6 ns 지연으로 AI 추론 및 전자기 PDE 해결에 적용한다. 양자화‑인식 알고리즘과 비트‑슬라이스 매트릭스 연산을 통해 AI 모델은 93 % 이상의 정확도를, 전자기 시뮬레이션은 12‑bit 해상도로 32‑64‑bit 수준의 정확성을 달성한다.
상세 분석
이 연구는 광학 아날로그 컴퓨팅의 핵심 한계였던 정밀도 문제를 양자화‑인식 설계와 디지털‑광학 혼합 정밀도 아키텍처로 해결한다. 먼저, TFLN 전기광 변조기를 이용해 진폭과 위상을 독립적으로 제어함으로써 복소수 입력 X와 가중치 W를 각각 9‑bit 수준으로 인코딩한다. 동상 검출기(50:50 커플러와 BPD)를 통해 실시간으로 실수부와 허수부를 동시에 추출하고, 저속 BPD의 적응형 적분 회로를 사용해 6 ns 이하의 전체 연산 지연을 구현한다. 고속(128 GS/s)에서 발생하는 전기‑광 비선형성 및 임피던스 불일치를 보정하기 위해 주파수 영역에서 채널 응답 H(f)를 측정하고, 사전 보정 필터 1/H(f)를 적용한다. 이 등화 과정은 오류 표준편차를 5.96 %에서 1.59 %로 감소시켜 실질적으로 7‑bit 수준의 양자화 정확도를 확보한다. 알고리즘 측면에서는 복소수 신경망을 2‑layer 구조로 설계하고, 양자화‑인식 훈련(HAQ)과 비트‑슬라이스 매트릭스 곱셈을 결합해 연산량을 7‑bit 정밀도로 압축하면서도 정확도 손실을 최소화한다. AI 추론 실험에서는 MNIST 데이터셋에 대해 93.4 %의 정확도를 달성했으며, 전자기 파동 시뮬레이션에서는 복소수 행렬‑벡터 곱을 이용해 12‑bit 해상도의 산란 해를 30 µs 내에 얻었다. 에너지 효율 측면에서는 전압 2 V, 전력 10 mW 수준의 TFLN 모듈러가 100 GS/s 이상 데이터 전송을 지원하며, 디지털‑광학 인터페이스의 ADC 해상도는 10‑bit 이상으로 구현돼 전체 시스템의 에너지‑성능 비율을 크게 향상시킨다. 이러한 설계는 기존 광학 컴퓨팅이 3‑5 bit에 머물렀던 한계를 뛰어넘어, 복소수 연산이 필수적인 AI와 과학 시뮬레이션 분야에 실용적인 가속기를 제공한다.
댓글 및 학술 토론
Loading comments...
의견 남기기