思考の整理のために垂れ流し(1/n)
(ツッコミ・質問歓迎)

New BingやCahtGPTなんかのAIが「質問に回答する」というもの、学習データや既存データからの返答だけではなく、既存の情報を統合して「穴埋めして回答を生成する」ができることや「世の中に複数回答があるものから、選択して回答する」ができる。またはこれを組み合わせすることができる。

思考の整理のために垂れ流し(2/n)
(ツッコミ・質問歓迎)

例えばデマ屋やフェイクニュース屋が「マスメディアの情報を一部だけ取り上げて、特定人物が言っていない・意図していない発言をしたかのように捻じ曲げる」ことは訴えたり、発信者開示請求をすることができる。

New BingやCahtGPTが既存の情報を統合して「穴埋めして回答を生成」したり、「世の中に複数回答があるものから、選択して回答」することで、同じような回答を生成する可能性はかなり高い。

この場合、その「発信者」は誰になるのか。

思考の整理のために垂れ流し(3/n)
(ツッコミ・質問歓迎)

実際にすでにいくつも例が出ていて、犯罪歴がない人について犯罪歴があるかのように学習して、情報を作り出していくことがわかっている

思考の整理のために垂れ流し(4/n)
(ツッコミ・質問歓迎)

Google HomeやAlexa、Siriに何かを質問しても「◯◯のサイトには□□と書かれています」と回答が来ることが多いように、これまでは技術的には可能でも「回答を複数の情報から生成する」ということは(情報、AIの倫理として)禁忌に近い扱いをしてきたはず

思考の整理のために垂れ流し(5/n)
(ツッコミ・質問歓迎)

New Bingに世界的な陰謀論について聞いた場合(質問の仕方にもよるのですが)、これは陰謀論で危険な考え方だというガイドが出ることもなく、「T大統領はDSと◯◯◯」みたいな回答をしてきます。

『検索エンジン』で、それらの単語を調べていて、陰謀論を事実であるかのように吹聴するサイトに到達するのは(ある程度)仕方がありません。『検索エンジン』は情報を整理して検索できる機能を提供しているものだからです。
※Googleはここらへんの情報に警告を出したり表示に影響させたりしますが

しかし、『検索エンジン+AI Chat』であるNew Bingは対話式で陰謀論について独自の切り口・語り口でそれらを伝えてきます。
これは『検索結果』とはいえない、とぼくは考えます。

思考の整理のために垂れ流し(6/n)
(ツッコミ・質問歓迎)

「情報を統合したり部分的に利用して新しい切り口での情報生成する」ことでこれらの情報が出てしまいます。

では既存の音声アシスタントなどと同じように「◯◯のサイトに□□と書かれています」とだけ要約して出すのではどうでしょうか?

それですと情報の発信主体は各サイトになりますから安心できるように思います。

しかし、「◯◯駅で美味しいチャーハンを出す店を5つ並べて」のように、複数のサイトの情報を統合して結果を出した方が良いような質問に対応できなくなりますし、「◯◯のような設定のなろう系小説のタイトル案を5つ出して」のような『生成でないと回答できない質問』にも対応できなくなります。

思考の整理のために垂れ流し(7/n)
(ツッコミ・質問歓迎)

つまり「情報を統合したり部分的に利用して新しい切り口での情報生成する」ことをしないと、大規模言語モデルを活用した情報検索は価値がなくなってしまうということなります。

そして、その価値を出す代償として、「誰が発信者なのか判断できない」怪しい情報が捏造されて流通することは間違いないでしょう。

思考の整理のために垂れ流し(8/n)
(ツッコミ・質問歓迎)

■個人に関する情報を統合しない?
→芸能人やスポーツ選手、政治家について質問したり調べたいことは普通にあるし、まさにそういうところで情報の統合が必要。
ただ、統合だけで穴埋めをしないように作ることはできるかもしれない。

■健康や政治に関する情報については強く制限をかける
→まあ、割と妥当。
ChatGPTは頑張ってて、New Bingがいまいちダメなところはここ。
とはいえChatGPTすら、制限かかってない危ないワードが沢山ある。

思考の整理のために垂れ流し(9/n)
(ツッコミ・質問歓迎)

■そもそも、そんなの個別キーワードすべてには対応できないのでは?
→5年くらいかければできそう。その過渡期は混乱したままで良いのか?

■フェイクニュースや陰謀論、存在しない犯罪歴などを捏造してしまった場合に、これらの発信者責任は誰になるのか?
→情報編集をしないで流通だけを担うプラットフォーマーは免責されてきたが、「生成責任」が問われるようになるのでは?

思考の整理のために垂れ流し(10/n)
(ツッコミ・質問歓迎)

何を入力されるかわからず、その入力に対して何わ生成するのか分からない大規模言語モデルをサービスに組み込むことに対して「情報発信者」としての「生成責任」を負わされるとしたら、プラットフォーマーにはリスクが大きすぎる。

例: いまならNew Bingに特定の人の(存在しない)犯罪歴を出力させることは容易なので、それと同じように芸能人や政治家について「◯◯ルーツである」とか「◯◯の犯罪歴がある」と出力させることが可能

これの責任を「プラットフォーマーが発信した情報」として訴えるとしたら、その責任をすべて負うことになるのか?
※まだ世界の誰も訴えたことがないから分からないw

思考の整理のために垂れ流し(11/n)
(ツッコミ・質問歓迎)

道義的にはプラットフォーマー自身が発信者になるのなら、その責任をすべて負うべきではないかと思います。

しかし、それではリスクが大きすぎて普通の人たちが大規模言語モデルの生み出す価値を享受できなくなってしまいます。

思考の整理のために垂れ流し(12/n)
(ツッコミ・質問歓迎)

自分で言うの笑うわw

思考の整理のために垂れ流し(13/n)
(ツッコミ・質問歓迎)

身も蓋もない結論ですが、免責や注意書きを入れながら、注意深く情報を出力するしかない。

ただ、現状はそれすらも怪しいまま利用されているので、そういったAI倫理・サービス倫理が強く求められる領域であるし、利用者もそこを深く理解して使わないといけないと思います。

Follow

@fujii_yuji
AIチャットボットが生成した文章が「情報」に該当するようになるのかが気になります。
報道機関等と異なり、事実であることを期待されていないため、事実と異なっていると指摘されることはあっても捏造やフェイクニュースとはみなされないのではないかと思いました。
(先日国民民主党代表の玉木雄一郎氏が動画内で自身についてchatGPTに聞いたところ「立憲民主党の代表」と間違った回答をされていましたが、捏造などとは言っていませんでした。)
技術が進んでいくと事実性を求められていく可能性もありますが、今のところは大規模な「いつどこでだれがなにをしたゲーム」みたいなものかなと私は捉えています。
この点どう思いますでしょうか?
kyo-yancha.ne.jp/minamihm/docu

· · Web · 1 · 0 · 0

@te
それはユーザーが「AIチャットボットが何であると認識して使っているか」によってしまうと思います。

そういう意味では「ChatGPTでは問題にならないことでも、Bingで検索して出てきた(生成された)回答だと問題になる」ということはあり得ると考えます。

@fujii_yuji 回答ありがとうございます!
bingのチャットが検索エンジンの検索結果という既存の情報のダイジェストであるというような捉え方をする場合は、ご指摘のような偽情報発信の問題になりますね。

@te
ご指摘のように現状は恐らくユーザーが「不完全なものである」という共通認識をもって使うものだと思うのですが、Bingにかぎらず、「何かを回答してくれるAI」とユーザーが認識するようになるのであれば、生成された情報の責任が問われる(特にそれが社会問題になるような情報であれば)ことに繋がると考えています。

@fujii_yuji ありがとうございます!思考の整理できました。

@te
こちらこそ、ご質問いただけて自分の考えの及んでいないところが埋まりました。ありがとうございます。

Sign in to participate in the conversation
Facebook

Facebook は、Mastodon インスタンスの一つです。