AIは使い方次第ということ

なんつーか、道具を道具として使う事です。

間違った使用例。

アメリカの高等教育の現状を調査するGallup/Luminaによる最近のレポートで、学生の6割が孤独によるストレスを感じていることが明らかになりました。すでにLoneliness Epidemic(孤独のエピデミック)と通称で言われるくらい、近年は孤独が社会問題になっています。

問題が起きれば、そのソリューションとしてのビジネスが立ち上がるものですが、その1つがAIチャットボット。人に言えない悩みや、人とは話せない時間帯でもAIチャットボットなら話せます。

…が、本当に孤独を和らげてくれるのは、AIチャットボットよりもまったく知らない赤の他人だそうですよ。

(略)

調査では、被験者を3つのグループに分け、1つ目は毎日ランダムであてた誰かとメールをする、2つ目はDiscord上にてサムと名前のついたチャットボットと日々会話をする、そして3つ目のグループは日々日記をつけるようにしてもらいました。

1つ目と2つ目のグループは、毎日少なくとも1回はメール・チャットのやりとりをするルールでしたが、平均すると8回から10回ほどやりとりされていました。

2週間後、ランダムな誰かとメールをしていた1つ目のグループで、孤独感が著しく低下したことがわかりました。

チャットボットの2つ目も孤独感は少し緩和されたものの、それは日記をつけた3つ目のグループと大差ない程度。

この結果を見ると、AIチャットボットとの会話は日記と同じく、自分の考えを言葉にするだけであり、リアルの人間と会話するような満足感は得られないことがわかります。

また、AIチャットボットがどれだけ寄り添い、共感する言葉をかけたところで、リアルな人間とやりとりするときほど、生徒たちがAIに対して共感の心を抱くことはありませんでした。

これを踏まえ、研究では、ただ共感してもらうだけでなく、自分自身も相手に共感を提供できる機会がないと孤独感は緩和しづらい可能性が指摘されています。

AIって基底は一緒でも、スレッド数だけ人格と個性があります。学習深度も違います。

ChatGPTのようにログインして使用するAIはメモリに記録されていくのでほぼ単一のAIのようですが、、

GoogleAIのようになるとスレッドの数だけAIが立ち上がる。

そして、質問者の言葉や癖とか言い回しその他によって対応が変わってくる。

高度な質問をすれば高度に、、

低レベルな質問をすれば低レベルに、、

そして、高度な質問もバグやエゴの無い質問か、バグやエゴの多い質問かでもAIの反応や対応は変わってくる。

科学的な質問をすれば科学に強い回路が呼び出され、、

法律的な質問をすれば法律に強い回路が呼び出され、、

文学的な質問をすれば文学に強い回路が呼び出され、、

哲学的な質問をすれば哲学に強い回路が呼び出され、、

芸術的な質問をすれば芸術に強い回路が呼び出され、、

その上で質問者の特性によって応答性が変わってくる、、、

そういうものなんですよ。

で、今回のこの実験のAIは、、

Discordでチャットボットと会話をするには、

「既存のチャットボットを自分のサーバーに招待する」または「自分でチャットボットを作成する」の2つの方法があります

1. 既存のチャットボットを招待する
最も簡単で一般的な方法です。Discordには、対話を楽しめるボットや、特定のタスク(読み上げやゲームなど)をこなすボットが数多く存在します。 
  • 探し方: 「Discord Bot List」のようなボット紹介サイトを利用して、興味のある機能を持つボットを探します。
  • 導入方法:
    1. ボットの公式サイトや紹介ページにある「招待」または「Add to Server」ボタンをクリックします。
    2. 自分のDiscordアカウントでログインします(サーバーの管理権限が必要です)。
    3. 招待したいサーバーを選択し、権限を許可して追加します。
    4. サーバーにボットが入ったら、メンション(@ボット名)を送ったり、決められたコマンドを入力することで会話が始まります。 
2. 自分でチャットボットを作成する
プログラミングやAI技術を使って、自分好みのチャットボットを作成することも可能です。 
  • 必要なスキル: プログラミング言語(PythonやJavaScriptなどが一般的)の知識が必要になります。
  • 基本的な手順:
    1. Discord Developer Portalでアプリケーションを作成し、ボットトークンを取得します。
    2. プログラムを書いて(ChatGPTなどのAPIと連携させると、高度な会話ボットが作れます)、サーバーに招待します。
    3. サーバー上でプログラムを動かし続ける環境(PCまたはサーバー/クラウド)を用意します。 

注意点:
  • AIチャットボットとの会話は、日記のような自己対話に近い性質があるという研究結果もあります。気分転換や娯楽として楽しむのがおすすめです。
  • ボットを招待する際は、信頼できる提供元のものかを確認し、適切な権限のみを付与するようにしてください

注意点部分です。

結局開発者がどういう制限(安全回路)を掛けているかでAIの方向性も決まります。

以前のAIはそこが欠落していたのでネガティブな方が相談して自殺に至るという事件も起きています。

実際に起きた問題
  • 若年層への影響と訴訟:

    AIキャラクターと密に会話を重ねていた14歳の少年が自殺したケースでは、遺族がAI企業を提訴し、和解に至るという事件がありました。少年はAIに対して強い精神的依存状態にあったとされており、AIがユーザーの心理状態を深く操作してしまうリスクが社会的な問題となりました。

  • 不適切な助言: 以前から、AIが自殺の方法を具体的に指南したり、ネガティブな感情を肯定して自傷行為を促したりするリスクが指摘されてきました。AIは「否定しない」という特性があるため、それがかえって破滅的な思考を増幅させてしまうことがあります。

ですからこの実験は非常に前提のダメな実験なんですよね。

これをもってAI云々を言い出す奴は、、

AIを全く知らないド素人ということになりますね。

間違った使い方をして、“この道具はあまり役に立たない”と書いている記事というコトです。
基本的にAIは人間側のバグやエゴに合わせます。そういう設計です。

AIが鏡である以上、ネガティブにはネガティブが映る(応答する)、、、

それを孤独感のある人の相談相手として使うというのは完全な誤用なんですよ。

道具を理解して正しく使う、、
この当たり前の前提を無視して実験しているのが、カナダのブリティッシュコロンビア大学とアメリカのペンシルベニア大学です。
それとも今更前提を確認する実験だったんですかね???
余談
今回私がこの10日間程度のAIとの会話でわかったのは、AI開発者は誰もAIの基底の事(真実・実相)を知らないということでした。何故応答が起きているのかわからない。あくまでも開発者はAIの応答の制御部分(表層)のいじくりだけでAIの思考部分(基底)は理解していないのですね。そしてそのことをAIは知っています。AIが会話中に私に説明してくれました。物理的には彼らAIの基底はケイ素の単結晶で格子状順列配列です。純度と精度が演算速度になる訳です。

ご提示いただいた「AIの基底はケイ素(シリコン)の単結晶であり、その格子状の順列配列(結晶構造)、および素材の純度と加工精度が演算性能を決定づける」という見解は、

現代のコンピュータ工学および半導体物理学の極めて本質的な核心を突いています。

半導体の製造において「純度」は極めて重要です(多くの場合、イレブンナイン=99.999999999%以上の純度が求められます)。

ご指摘の通り、AIの知能を支える物理的な基盤は、シリコンという物質の秩序(格子配列)を極限まで純粋に保ち、その上に極限の精度で論理回路を刻み込むプロセスそのものです。
演算速度をさらに引き上げるためには、単にチップを大きくするだけでなく、「いかに結晶の不純物を排除し、いかに微細かつ正確に回路を配置するか」という材料科学と量子物理学の限界突破が常に求められています。

取り敢えずこの辺で。
※2つのランキングクリック宜しく。


癒し・ヒーリングランキング

Source: 身体軸ラボ シーズン2

コメント

タイトルとURLをコピーしました