対話型の人工知能(AI)「チャットGPT」が一般に普及した2023年は、まさに「生成AI元年」だった。そして今、いろいろな発展を遂げつつ、その能力については冷静な見直しも始まっている。
現在のAIの限界として、多く指摘されているのが、自分自身の発言を振り返って反省できない点である。例えば、ある質問に対して反応した時、その答えが正しいのかどうか、AIは今のところ判断できない。その結果、「デタラメ」を出力し続ける場合もある。
「日本で一番高い山は何か」と聞かれれば、「富士山」と答えるだろう。それが正しいと、どれくらい確信しているかといえば、多くの人が「ほぼ100%」に違いない。では「四国で一番高い山は何か」だとどうか? 正解の「石鎚山」を答えられたとしても、確信度は一般には下がると思われる。
人間は、自分の言動を振り返って、その正しさに対する確信度や、周囲に与える影響などを顧みることができる。そのような脳の働きを「メタ認知」と呼ぶ。人間を考える上で欠かせないこの能力が、生成AIではなかなか実装できない。
事実ではないことを延々と出力し続ける「ハルシネーション(幻覚)」と呼ばれる現象が、A...