思考の整理のために垂れ流し(5/n)
(ツッコミ・質問歓迎)
New Bingに世界的な陰謀論について聞いた場合(質問の仕方にもよるのですが)、これは陰謀論で危険な考え方だというガイドが出ることもなく、「T大統領はDSと◯◯◯」みたいな回答をしてきます。
『検索エンジン』で、それらの単語を調べていて、陰謀論を事実であるかのように吹聴するサイトに到達するのは(ある程度)仕方がありません。『検索エンジン』は情報を整理して検索できる機能を提供しているものだからです。
※Googleはここらへんの情報に警告を出したり表示に影響させたりしますが
しかし、『検索エンジン+AI Chat』であるNew Bingは対話式で陰謀論について独自の切り口・語り口でそれらを伝えてきます。
これは『検索結果』とはいえない、とぼくは考えます。
思考の整理のために垂れ流し(6/n)
(ツッコミ・質問歓迎)
「情報を統合したり部分的に利用して新しい切り口での情報生成する」ことでこれらの情報が出てしまいます。
では既存の音声アシスタントなどと同じように「◯◯のサイトに□□と書かれています」とだけ要約して出すのではどうでしょうか?
それですと情報の発信主体は各サイトになりますから安心できるように思います。
しかし、「◯◯駅で美味しいチャーハンを出す店を5つ並べて」のように、複数のサイトの情報を統合して結果を出した方が良いような質問に対応できなくなりますし、「◯◯のような設定のなろう系小説のタイトル案を5つ出して」のような『生成でないと回答できない質問』にも対応できなくなります。
思考の整理のために垂れ流し(10/n)
(ツッコミ・質問歓迎)
何を入力されるかわからず、その入力に対して何わ生成するのか分からない大規模言語モデルをサービスに組み込むことに対して「情報発信者」としての「生成責任」を負わされるとしたら、プラットフォーマーにはリスクが大きすぎる。
例: いまならNew Bingに特定の人の(存在しない)犯罪歴を出力させることは容易なので、それと同じように芸能人や政治家について「◯◯ルーツである」とか「◯◯の犯罪歴がある」と出力させることが可能
これの責任を「プラットフォーマーが発信した情報」として訴えるとしたら、その責任をすべて負うことになるのか?
※まだ世界の誰も訴えたことがないから分からないw
@fujii_yuji
AIチャットボットが生成した文章が「情報」に該当するようになるのかが気になります。
報道機関等と異なり、事実であることを期待されていないため、事実と異なっていると指摘されることはあっても捏造やフェイクニュースとはみなされないのではないかと思いました。
(先日国民民主党代表の玉木雄一郎氏が動画内で自身についてchatGPTに聞いたところ「立憲民主党の代表」と間違った回答をされていましたが、捏造などとは言っていませんでした。)
技術が進んでいくと事実性を求められていく可能性もありますが、今のところは大規模な「いつどこでだれがなにをしたゲーム」みたいなものかなと私は捉えています。
この点どう思いますでしょうか?
http://www.kyo-yancha.ne.jp/minamihm/documents/daregadokode.pdf
@fujii_yuji 回答ありがとうございます!
bingのチャットが検索エンジンの検索結果という既存の情報のダイジェストであるというような捉え方をする場合は、ご指摘のような偽情報発信の問題になりますね。
@te
ご指摘のように現状は恐らくユーザーが「不完全なものである」という共通認識をもって使うものだと思うのですが、Bingにかぎらず、「何かを回答してくれるAI」とユーザーが認識するようになるのであれば、生成された情報の責任が問われる(特にそれが社会問題になるような情報であれば)ことに繋がると考えています。
@fujii_yuji ありがとうございます!思考の整理できました。
@te
こちらこそ、ご質問いただけて自分の考えの及んでいないところが埋まりました。ありがとうございます。
@te
それはユーザーが「AIチャットボットが何であると認識して使っているか」によってしまうと思います。
そういう意味では「ChatGPTでは問題にならないことでも、Bingで検索して出てきた(生成された)回答だと問題になる」ということはあり得ると考えます。