전문가들, AI가 '공동 과학자'가 될 준비가 되지 않았다고 생각합니다

지난 달, Google은 'AI 공동 과학자'를 발표했는데, 회사는 이 AI가 과학자들이 가설을 생성하고 연구 계획을 세우는 것을 돕는 데에 설계되었다고 말했습니다. Google은 이를 새로운 지식을 발굴하는 방법으로 소개했지만, 전문가들은 이 AI와 이와 유사한 도구들이 PR 약속을 많이 실현하지 못한다고 생각합니다.

'MIT의 컴퓨터 비전 연구원인 Sarah Beery는 '이 예비 도구는 흥미로운데, 심각하게 사용될 가능성이 없어 보입니다. 과학 커뮤니티에서 이러한 유형의 가설 생성 시스템에 대한 수요가 있는지 확실하지 않습니다.'라고 TechCrunch에 말했습니다.

Google는 특히 생명과학 분야와 같은 문헌 밀도가 높은 분야에서 언젠가 과학적 연구를 급속히 가속화할 것이라고 주장한 최신 기술 거인 중 하나입니다. OpenAI CEO인 Sam Altman은 올해 초 에세이에서 '초지능' AI 도구가 '과학적 발견과 혁신을 대규모로 가속화할 수 있다'고 말했습니다. 이와 유사하게, Anthropic CEO인 Dario Amodei는 AI가 대부분의 암에 대한 치료 방법을 개발하는 데 도움을 줄 수 있다고 대담히 예측했습니다.

그러나 많은 연구자들은 현재 AI가 과학적 과정을 안내하는 데 특히 유용하지 않다고 생각하지 않습니다. Google의 AI 공동 과학자의 경우, 이들이 말하길, Google의 AI 공동 과학자와 같은 응용 프로그램은 실증적 데이터로 지원되지 않은 하이프에 불과합니다.

예를 들어, Google이 AI 공동 과학자를 설명하는 블로그 게시물에서 Google은 이 도구가 이미 골수에 영향을 미치는 혈액암인 급성 골수성 백혈병의 약 재사용과 같은 영역에서 잠재력을 보여줬다고 말했습니다. 그러나 결과가 너무 모호해서 “어떤 유일한 과학자도 [그것들]을 진지하게 받아들일 리가 없을 것”이라고 아리조나 주 투손에 위치한 노스웨스트 메디컬 센터-투손과 협력하는 병리학자인 Favia Dubyk이 TechCrunch에 말했습니다.

'이것은 연구자들을 위한 좋은 시작점으로 사용될 수 있지만 [...] 제공된 세부 정보 부족이 걱정스럽고 그를 신뢰하게 만들지 않습니다,'라고 Dubyk이 TechCrunch에 말했습니다. '제공된 정보의 부족으로 진정으로 도움이 될 수 있는지 이해하는 데 정말 어렵습니다.'

그 결과를 재현하는 수단을 제공하지 않고 Google이 가공 과학 제품을 선포한 데 대해 과학 커뮤니티에 비난받은 것은 처음이 아닙니다.

2020년에 Google은 유방 종양을 감지하는 데 훈련된 AI 시스템 중 하나가 인간 방사선과사와 비교하여 더 나은 결과를 달성했다고 주장했습니다. 하버드 대학과 스탠포드 대학의 연구자들이 Nature 저널에 반론을 발표하여 Google의 연구에서 자세한 방법과 코드가 없다고 말했습니다. '그 연구의 과학적 가치를 떨어뜨렸다'고 말했습니다.

과학자들은 Google을 비난하기도 했습니다. 소재 공학과 같은 과학 분야를 위한 AI 도구의 한계를 과장했다는 이유로. 2023년, Google은 GNoME이라는 자사의 AI 시스템을 활용해 약 40가지 '새로운 소재'가 합성되었다고 말했습니다. 그러나 외부 분석 결과, 이 중 아무것도 진정한 새로운 것이 아니었습니다.

'Google의 '공동 과학자'와 같은 시스템의 진정한 강점과 한계를 이해하기 위해서는 그것들이 다양한 과학 분야에서 엄격하고 독립적인 평가를 받을 때까지 이해할 수 없습니다,'라고 로체스터 공과대학의 소프트웨어 공학 조교수인 Ashique KhudaBukhsh가 TechCrunch에 말했습니다. 'AI는 일반적으로 통제된 환경에서 잘 작동하지만 규모적으로 적용할 때 실패할 수 있습니다.'

복잡한 과정

과학적 발견을 돕기 위해 AI 도구를 개발하는 도전의 일부는 알려지지 않은 수많은 혼란 요소를 예측하는 것입니다. AI는 넓은 탐색이 필요한 영역, 즉 방대한 가능성 목록을 좁히는 데 유용할 수 있습니다. 그러나 AI가 과학적 발견으로 이어지는 문제 해결 능력을 가지고 있는지는 덜 명확합니다.

'우리는 역사적으로 중요한 과학적 발전, 예를 들어 mRNA 백신 개발,이 인간 직관력과 회의에도 불구하고 인내에 의해 주도된다는 것을 보았습니다,'KhudaBukhsh가 말했습니다. '오늘날의 AI는 그를 복제하는 데 적합하지 않을 수 있습니다.'

일본 소니 컴퓨터 과학 연구소의 AI 연구원인 Lana Sinapayen은 Google의 AI 공동 과학자와 같은 도구들이 잘못된 종류의 과학적 작업에 집중한다고 믿습니다.

Sinapayen은 새로운 학술 문헌을 요약하거나 작업을 연구 지원 신청서 요구 사항에 맞게 서식화하는 것과 같이 기술적으로 어려운 또는 지루한 작업을 자동화할 수 있는 가치있는 AI가 있다고 봅니다. 그러나 많은 과학자들은 가설을 생성하는 AI 공동 과학자에 대한 수요가 거의 없다고 말합니다. 이 작업으로 많은 연구자들이 지적 충족을 얻는다고 합니다.

'많은 과학자들, 저도 포함해서, 가설을 생성하는 것이 일의 가장 재밌는 부분입니다,'Sinapayen이 TechCrunch에 말했습니다. '왜 컴퓨터에 내 재미를 외주하고 어렵게하는 일만 내게 남겨두겠습니까? 일반적으로 다수의 생성 AI 연구자들은 인간이 하는 일이 왜 그렇게 하는지 오해하고 우리는 종종 당신을 재미있게 하는 부분을 자동화하기 위한 제품 제안을 받게됩니다.'

Beery는 과학 과정 중 가장 어려운 단계가 가설을 검증하거나 부정하는 연구 및 분석을 설계하고 실행하는 것일 수 있으며, 현재 AI 시스템으로는 이를 이루기 어렵습니다. 물론 AI는 실험을 실행하는 데 물리적 도구를 사용할 수 없으며, 극히 제한된 데이터가 존재하는 문제에 대한 성능이 떨어질 수 있습니다.

'대부분의 과학은 전적으로 가상적으로 수행할 수 없습니다 - 새로운 데이터를 수집하거나 연구소에서 실험을 수행하는 것과 같은 과학적 과정의 중요한 부분이 물리적 일을 필요로 합니다,'Beery가 말했습니다. 'Google의 '공동 과학자'와 같은 시스템의 가장 큰 제한 사항 중 하나는 실제 과학적 과정과 비교하여 맥락에 대한 정보가 없어 실제로 그 사용 가능성에 제한을 둘 수 있고, 사용 시스템 및 그들의 과거 작업, 그들의 기술 세트 및 접근 가능한 자원, 그리고 그들이 사용하는 연구 목표에 대한 이해.

AI 위험

AI의 기술적인 단점과 위험, 예를 들어 환각하는 경향,도 연구자들이 심각한 작업에 그것을 지원하기를 주의하게 만듭니다.

KhudaBukhsh는 AI 도구가 과학 문헌에 노이즈를 생성할 수도 있고 진행을 높이지 않을 수도 있다고 우려합니다.

이미 문제가 발생했습니다. 최근 연구에 따르면 AI가 만든 '쓰레기 과학'이 학술 문헌 검색 엔진인 구글 스칼라(Google Scholar)을 홍수를 쳐쇄고 있습니다.

'AI가 생성한 연구는 조심하지 않으면 과학 분야에 저품질 또는 오해를 일으킬 수 있어 피어 리뷰 프로세스를 압도할 수 있습니다,'KhudaBukhsh가 말했습니다. '과도한 피어 리뷰 프로세스는 이미 컴퓨터 과학과 같은 분야에서 도전입니다. 여기서 최상위 학회는 등록된 논문 수가 기하 급수적으로 증가했습니다.'

Sinapayen은 잘 설계된 연구조차도 AI가 제대로 실행할 수 없게 될 수 있다는 것을 우려했습니다. 아마도 그녀는 문헌 검토 및 종합을 돕는 도구가 아이디어를 좋아합니다. 그녀는 그러나 현재 AI에 합의할 수 있는만큼 신뢰하지 않을 것이라고 했습니다.

'그것은 기존 도구들이 주장하고 있는 일들이지만, 저는 개인적으로 현재 AI에 그 일을 맡길 의향이 없습니다,'Sinapayen이 말했습니다. 또한 많은 AI 시스템이 훈련될 때 취하는 방식과 소모하는 에너지 양에 대해 문제 제기했습니다. '모든 윤리적 문제가 해결되어 있더라도 현재 AI는 내 작업을 그들의 출력에 기반으로하는 믿을만한 정도가 충분하지 않습니다.'