최근의 발전에도 불구하고 AI 모델은 AGI 수준의 추론에 뒤처져 있습니다.
Cryptocurrencies

애플 연구원들은 주요 인공지능 모델들이 여전히 인간과 같은 사고에서 부족함을 보이며, 인공지능의 일반 인공지능(AGI)이 임박했다는 주장에 의문을 제기한다고 밝혔다.
6월에 발표된 사고의 착각이라는 제목의 논문에서, 애플의 팀은 ChatGPT와 Claude를 포함한 주요 대형 추론 모델(LRM)을 표준 코딩 또는 수학 벤치마크가 아닌 맞춤형 퍼즐 게임을 사용하여 평가했다.
최근의 AI 업데이트가 전통적인 테스트에서의 성능 향상을 보여주지만, 연구는 이러한 벤치마크가 광범위한 추론 능력을 포착하지 못한다고 발견했다.
연구원들은 "사고" 모델과 "비사고" 모델 변형 모두를 테스트했고, 작업 복잡성이 증가함에 따라 성능이 급격히 떨어진다는 것을 발견했다.
논문은 "우리는 LRM이 정확한 계산에서 한계가 있다는 것을 발견했다: 이들은 명시적 알고리즘을 사용하지 못하며 퍼즐 전반에서 일관성 없이 추론한다"고 밝혔다.
또한, AI는 종종 정확한 해답으로 시작한 후, 응답이 발전하면서 잘못된 추론으로 벗어나는 경향이 있음을 관찰했다.
이러한 패턴은 현재 모델들이 추론을 모방할 뿐 내면화하지 않으며, AGI와 관련된 일반화 가능한 사고를 결여하고 있음을 시사한다.
연구는 기존 접근법이 인간의 추론을 복제하는 데 근본적인 한계에 도달했을 수 있음을 결론지었다.
이 분석은 OpenAI CEO 샘 알트만과 Anthropic CEO 다리오 아모데이와 같은 인물들의 낙관적인 예측과 대조된다.
알트만은 1월에 "우리는 전통적으로 이해해온 AGI를 구축하는 방법을 이제 파악했다고 확신한다"고 말했다.
아모데이는 AGI가 2026년 또는 2027년까지 인간 능력을 초과할 수 있다고 예측했다.
애플의 발견은 이러한 예상이 기계에서 진정한 일반 지능을 달성하는 복잡성을 과소평가할 수 있음을 시사한다.