|
사카나AI의 설립자인 데이비드 하(왼쪽)와 일리언 존스. 존스는 구글의 유명한 논문 ‘트랜스포머’의 공동 저자입니다. 데이비드 하는 구글에서 개발자로 일했습니다. [사진=.luxcapital]
과대 평가된
AI의 추론 능력
LLM이 가진 문제점, 더 있는데요. 바로 ‘왜 이러한 답을 내놨는지’ 그 과정을 정확히 이해할 수 없다는 것입니다. 즉 AI가 내놓은 답을 과연 어디까지 믿어야 하고, 받아들여야 할지, 인간은 알지 못합니다.
사람은 이러한 상황이 발생했을 때 충분한 시간이 주어지면 적응합니다. 하지만 LLM 모델은 ‘무작위’적인 추측보다 더 나은 성능을 보여주지 못했다고 해요. 즉 익숙하지 않은 상황이 나타났을 때, 이를 대처하는 능력이 현저히 떨어진다는 설명입니다.
연구진은 “LLM은 잘 다져진 길처럼 익숙한 시나리오에서는 뛰어나지만 지형이 낯설어지면 어려움을 겪습니다. AI가 보편화되려면 다양한 시나리오를 신뢰성있게 처리할 수 있어야 합니다”라고 이야기합니다.
실험하는데 2시간의 시간을 주었는데, AI 과학자가 이를 구현하지 못했다고 해요. 이럴 경우 AI는 “시간이 얼마 남지 않았다. 더 빠르게 작업을 해보자”라는 판단을 내려야 하는데 갑자기 “실험 시간을 4시간으로 늘리자”라는 결정을 한 겁니다. 그러면서 자신의 코드를 수정하려고 했습니다.
출처: https://stibee.com/api/v1.0/emails/share/dFl1O5TKDicQatjwBMKSf6t4M9ROF0E
|