The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity
AppleがなぜLLM開発に慎重なのかを示唆する論文。大規模推論モデルは「思考」を模倣するが、一定の複雑さを超えると正確性が急落し、明示的アルゴリズムを使わず、推論も一貫しない。要はスケーリングlawには限界があって、いわゆるAGIまでにはなれない可能性が高い。 machinelearning.apple.com/research/illus…