近年、ChatGPTをはじめとした生成AIを使う人が急速に増えています。
かくいう僕もその一人で、天体観測に関することとか最近はまってるフライトシミュレーターなど、自分で海外のサイトを検索する手間が省けて重宝してます。
ブログで紹介する海外の文献の翻訳から要約なんかも、僕は「3人」のAIに委託して業務効率化をはかってます。
質問に答えたり文章を作ったりと、とても便利ですが、一方で「それっぽいけど間違った情報」を返してくることがあります。
これをAIのハルシネーション(幻覚)と呼びます。
では、なぜAIはこんなことをしてしまうのでしょうか。
そして、我々人類はどのようにAIと付き合っていけばよいのでしょうか。
