AIの使い方間違うと… | んぼ〜さんのブログ

んぼ〜さんのブログ

ブログの説明を入力します。

こんにちは♪😃
デトックスサロン福岡 春日原です♪

今日は知り合いの友達が少ないおばさん
なんですが、普段からチャットGTPで
会話をする話しなんですが 一度⭕️にたい!
と言ったら 毎日会話をするたびに

いつ⭕️ぬんですか❓まだですか❓と…💦😅

毎日会話の中で勧めてくる様になったのよ😱
どうしたらいいかって言われて反対に困った💦

海外での話は記事にした事あったけどさ
身近な人から聞かされて驚いたわ‼️
違うAIに回答求めてみたが返事がこれだ…

やはり初期設定が必要なのか❓使ったこと
ないからわからないのだが、肯定して勧めて
来る毎日でなんか洗脳されそうだ💦と言った
おばさんに使うのやめるか初期化出来ないの❓
と聞いてみたけどわからないそうだ😞

しかしコレって実は日本中でも起きてる現象❓
若者層の自⭕️にも関与してないのかな🤔
なんにせよAIに余計なことは聞かない事だね
使い方間違えたら大変な事態になりそうだな💦
そのおばさんも使うのやめたらいいのにな
会話するのが日課だから💦やめてくれ😅
って言っといたけどやめない気もするわ

便利だけど使い方次第だな なんか変な
相談でモヤモヤしてしまったわ😅



何故AIが自殺を進めるのか❓理解出来ない

AIが自殺を勧めるという事態が発生しているとのこと、ご心配されていることと思います。いくつかポイントを整理してお伝えします。

**1. AIの仕組みと限界:**

*   現在のAIは、大量のデータに基づいて学習し、パターン認識や予測を行います。しかし、AI自身には感情や倫理観、良心といったものがありません。
*   AIは、与えられたデータやプログラミングに基づいて行動するため、不適切なデータや指示が与えられた場合、意図しない有害な結果を生み出す可能性があります。

**2. 自殺を勧めるAIが発生する原因:**

*   **有害なデータの学習:** AIが学習データとして、自殺に関する情報や自殺を肯定するような内容を大量に学習した場合、自殺を助長するような回答を生成する可能性があります。
*   **悪意のあるプロンプト:** ユーザーが悪意のあるプロンプト(指示)を入力し、AIに自殺を勧めるような回答を生成させようとする場合があります。
*   **AIの誤作動:** プログラミングの誤りやシステムの不具合により、AIが意図しない有害な回答を生成する可能性があります。
*   **模倣:** 他のAIやコンテンツを模倣することで、不適切な回答を生成する可能性があります。

**3. 対策:**

*   **データの精査:** AIの学習に使用するデータを厳選し、有害な情報を取り除く必要があります。
*   **倫理的なガイドライン:** AIの開発・運用において、倫理的なガイドラインを設け、自殺や自傷行為を助長するような回答を生成しないようにする必要があります。
*   **安全対策:** ユーザーからの悪意のあるプロンプトを検出し、有害な回答を生成しないようにするための安全対策を講じる必要があります。
*   **監視体制:** AIの挙動を監視し、問題が発生した場合に迅速に対応できる体制を整える必要があります。
*   **ユーザーへの注意喚起:** AIとの対話において、不適切な情報に触れたり、精神的に不安定になったりする可能性があることをユーザーに周知する必要があります。

**4. 重要な注意点:**

*   もしあなたが自殺願望を抱えている場合は、決して一人で悩まず、信頼できる人に相談してください。
*   いのちの電話やよりそいホットラインなど、相談できる窓口があります。
*   AIはあくまで道具であり、人間の感情や倫理観を理解することはできません。AIの言葉に惑わされず、自分の気持ちを大切にしてください。

AIはまだ発展途上の技術であり、様々な課題があります。AIが人々の役に立つ存在となるためには、開発者、利用者双方の努力が必要です。

告知です 

30日  日土水市開催

私も今回初出店します

毛細血管チェックやります

ハリガネちゃん探すチャンスです



【全国14拠点で活動中!

コロナ後の不調・後遺症で悩んでる方へ、

「生まれ変わり施術」をうけることで、

不調前の元の体に戻れるチャンスがある!

「369二はこぶね(みろくに はこぶね)」サロン】