본문 바로가기

실험용 코드를 알아서 짜는 인공지능 (구글 논문)

`,.' 2025. 9. 9.

📌 핵심 요약

  • 무엇을 했나? 사람이 수작업으로 오래 걸리던 ‘과학용 코드(실험·분석을 자동화하는 소프트웨어)’를 LLM(대형언어모델) + 트리서치로 자동 탐색·개선해, 인간 전문가 수준(혹은 그 이상)의 소프트웨어를 만들어낸 연구예요.
  • 주요 성과: 단일 논문으로 끝나지 않고 여러 분야(단일세포 유전체·코로나 입원 예측·위성 영상 분할·뇌 신경활동 예측·시계열·난적분 수치해석 등)에서 인간·기존 방법을 뛰어넘는 결과를 냈어요 — 예: scRNA-seq에서 40개의 새로운 방법이 기존 최고를 넘어섰고, 코로나 예측에서는 14개 전략이 CDC 앙상블을 능가했습니다.

1) 왜 이 연구가 중요할까?

과학 연구의 많은 부분이 **“실험을 돌리는 코드”**에 의존합니다. 그런데 그 코드(데이터 전처리, 모델 조합, 하이퍼파라미터 튜닝 등)를 잘 만드는 데는 전문가의 시간과 시행착오가 엄청나게 들어요. 이 논문은 그 ‘코드 만들기’ 과정을 AI가 자동으로 탐색·개선하도록 만들어 연구 속도를 확 끌어올릴 수 있음을 보여줍니다.


2) 핵심 아이디어 

  • 레시피 탐색 비유: 요리사가 한 가지 요리 레시피를 계속 바꿔가며 더 맛있는 음식을 찾는다고 상상해보세요. AI는 레시피(코드)를 조금 바꾸고(코드 변형), 맛(평가 지표)을 본 뒤 잘된 쪽을 더 발전시키는 식으로 수천 번 시도합니다. 잘된 시도는 남겨서 다음 단계로 이어가죠.
  • 레이블: 이 연구는 LLM에게 ‘레시피 수정’을 시키고, 트리 형태로 가능한 후보들(노드)을 관리하면서 가장 점수가 높은 쪽을 골라 다음 탐색 방향을 정합니다. 또한 기존 논문 아이디어를 ‘주입’해서 아이디어를 합치는(재조합) 방식도 씁니다.

3) 시스템 구조

  • 입력: 문제 정의(예: 예측해야 할 값), 데이터, 평가 지표(숫자로 측정 가능한 성능)와 때때로 관련 논문 요약.
  • LLM(코드 작가): 주어진 설명과 이전 코드 샘플을 보고 새 코드(변형)를 작성.
  • 샌드박스(안전한 실행 공간): 생성된 코드를 실제로 돌려보고 점수(성능)를 계산.
  • 트리 서치: 여러 후보(생성된 코드들)를 트리 구조로 관리해, ‘탐색(새 시도)’과 ‘이용(현재 잘된 것 개선)’의 균형을 맞추며 더 좋은 코드로 수렴시킴.
  • 아이디어 주입·재조합: 논문 요약이나 다른 방법의 핵심을 LLM에 넣어 “이 방법들과 섞어봐”라고 지시하면, 시스템이 서로 장점을 섞은 새로운 방법을 자동으로 만들어냅니다.

쉬운 비교: 보통 사람은 A 레시피만 쓰다가 실패하면 포기하지만, 이 시스템은 A, B, C 레시피를 동시에 실험해 가장 맛있는 조합을 자동으로 찾아냅니다.


4) 실험 결과 

A. 단일세포(ScRNA-seq) 배치 통합

  • 무엇? 여러 연구에서 얻은 세포 데이터의 ‘배치 효과(실험 간 차이)’를 없애고 진짜 생물학적 신호를 보존하는 방법을 찾는 문제.
  • 결과: 기존 톱(최신 논문들)을 뛰어넘는 40개의 새로운 방법을 찾아냈어요. 예를 들어, 두 알고리즘을 합쳐 더 강력한 접근법을 자동으로 발견했습니다.

B. 코로나(CDC) 입원 예측

  • 무엇? 주별/주 단위로 입원자 수를 예측하는 실전 문제.
  • 결과: 이 시스템이 만든 14가지 전략이 CDC의 앙상블(여러 모델을 합친 기준 모델)보다 성능이 좋았어요. 즉, 공중보건 의사결정에 바로 쓸 수 있을 정도의 예측력을 냈습니다.

C. 위성 영상(지리공간) 분할

  • 무엇? 위성 사진의 각 픽셀을 ‘건물/나무/수역’ 등으로 정확히 분류하는 문제.
  • 결과: 기존 논문보다 높은 정확도(mIoU ≈ 0.80 이상)를 보이는 모델들을 자동으로 만들었어요. 데이터 증강, 테스트타임 앙상블 같은 기법을 결합해 성능을 끌어올렸습니다.

D. 뇌 신경 활동 예측(ZAPBench)

  • 무엇? 생쥐·제브라피시 등 뇌의 뉴런 활동을 시간 축으로 예측하는 문제.
  • 결과: 트리서치로 찾아낸 모델이 기존의 복잡한 비디오 기반 모델을 능가하거나 근접한 성능을 냈고, 학습 속도는 훨씬 빨랐습니다(자원 효율적).

E. 일반 시계열(GIFT-Eval) & 난적분 수치해석

  • 무엇? 여러 도메인 시계열 예측과, 표준 수치적분 함수가 실패하는 난적분 계산 문제.
  • 결과: 통합 모델·일반 예측 라이브러리를 자동으로 만들어 리더보드 수준의 성능을 보였고, 난적분 문제에서는 표준 함수가 틀리는 경우에서 대부분 정확한 값을 구해냈습니다.

5) 장점과 한계

  • 장점
    • 사람으로선 수주·수개월 걸릴 탐색을 몇 시간~며칠로 단축시킴.
    • 서로 다른 방법을 자동으로 재조합해 새롭고 강력한 방법을 찾아냄.
    • 범용성: 여러 과학 분야에 적용 가능함.
  • 한계 / 주의점
    • 검증 필요: 자동 생성된 코드는 사람이 꼼꼼히 리뷰해야 합니다(특히 윤리·데이터 누수·잘못된 가정).
    • 데이터·문제 정의 의존: 평가 지표(점수)가 잘못 설정되면 시스템은 그 기준만 최적화할 뿐, 진짜 ‘과학적 가치’와 다를 수 있음.
    • 계산 비용: 트리서치와 코드 실행을 반복하므로 자원(시간·GPU 등)이 꽤 듭니다.

6) 우리가 당장 써볼 수 있는 팁 3가지

  1. 작은 문제로 실험해보기: Kaggle playground 수준의 문제로 먼저 돌려 ‘어떤 방식으로 코드가 바뀌는지’ 확인해 보세요.
  2. 평가지표를 똑바로 설정하기: 최종 목적(재현성, 해석성, 정확도 등)을 명확히 하고, 그에 맞는 점수를 설계하세요.
  3. 사람 검수 프로세스 마련: 자동 생성된 코드는 코드리뷰·단위테스트·데이터 누수 체크를 반드시 거치게 하세요. 논문도 인간 검사로 생성 코드의 적절성을 확인했습니다.

7) 한 줄 결론

“LLM + 트리서치 조합으로 ‘과학용 코드 만들기’를 자동화하면 아이디어 탐색 속도가 혁신적으로 빨라지지만, 사람의 검증과 올바른 평가 지표 없이는 위험할 수 있다.”


2509.06503v1.zip
17.71MB

댓글