近年、ChatGPTをはじめとした生成AIを使う人が急速に増えています。

 

かくいう僕もその一人で、天体観測に関することとか最近はまってるフライトシミュレーターなど、自分で海外のサイトを検索する手間が省けて重宝してます。

 

ブログで紹介する海外の文献の翻訳から要約なんかも、僕は「3人」のAIに委託して業務効率化をはかってます。


質問に答えたり文章を作ったりと、とても便利ですが、一方で「それっぽいけど間違った情報」を返してくることがあります。


これをAIのハルシネーション(幻覚)と呼びます。

 

では、なぜAIはこんなことをしてしまうのでしょうか。

そして、我々人類はどのようにAIと付き合っていけばよいのでしょうか。