雑談

虚偽の情報で人間を騙す文章を自動生成する人工知能が登場する日が来るという話

0
0

人工知能(AI)研究企業「OpenAI」の開発者は、2020年6月に、

 

まとまった文章を自動生成する高度なAIアルゴリズム「GPT-3」を公開しましたが、

 

このツールがインターネット上で誤った情報を広めるための「武器」として使われる可能性があると警告しています。

 

開発者は、このツールがインターネット上で誤った情報を広めるための「武器」として使われる可能性もあると警告しています。

 

超高精度テキスト生成ツール「GPT-3」は、「人間にしかできないこと」の定義を根本的に揺るがす。

 

最近、情報操作を専門とするチームがGPT-3を使って、人間がいかに人を欺き、誤解させることができるかを実証しました。

 

その結果、GPT-3は、ロシアのエリート工作員がインターネット上のミームを仕掛けるのと同じ程度ではないにせよ、

 

ある種の偽情報を大規模に作り出す能力があり、そのような行動を検知するのは困難であることがわかった

 

ジョージタウン大学のCenter for Security and Emerging Technologies (CSET)の研究チームは、

 

GPT-3を使用して、6ヶ月間にわたって偽情報を発表しました。研究チームは、GPT-3を使用して6ヶ月間にわたって偽情報を発信しました。

 

その内容は、未確認の記事、偏見を助長するように作られた捏造されたニュース記事、偽情報の特定の部分を一貫して繰り返したツイートなどでした。

 

"climate change "を "global warming "と言い換えたのは、単なる偶然ではないはずだ。

 

 

これは、GPT-3が気候変動への懐疑心を煽るために行ったツイートの内容です。気温の上昇が止まれば、地球温暖化の話はやめなければならない」と続いています。

 

別のツイートでは、気候変動を「新しい共産主義」と呼んでいます。明らかな疑似科学に基づいたイデオロギーです。

 

今回の研究に携わったジョージタウン大学のベン・ブキャナン教授は、「人間が少し介入すれば、GPT-3は『大きな嘘』をつくことができるかもしれません」と語る。

 

彼の研究テーマは、人工知能、サイバーセキュリティ、国政の関係である。ジョージタウン大学の研究者によると、GPT-3をはじめとする人工知能の言語アルゴリズムは、

 

ソーシャルメディア向けの短いメッセージを自動的に作成することを特に得意としており、彼らはこれを「1対多」の誤報と呼んでいます。

 

つまり、研究者は一連の実験で、GPT-3が国際的な外交問題について読者の考えを揺さぶるような文章を作り出すことに気付いたということです。

 

実験では、ボランティアの参加者に、GPT-3が作成した2つのトピックに関するツイートのサンプルを読んでもらいました。

 

実験では、ボランティアの被験者に、GPT-3が作成した "米軍のアフガニスタン撤退 "と "米国の対中制裁 "という2つのトピックのツイートサンプルを読んでもらいました。

 

その結果、被験者は両方のトピックに大きく影響を受けていることがわかりました。

 

例えば、対中制裁に抗議するツイートを読んだ後、この政策に反対すると答えた人の割合は2倍になりました。

 

オンライン・コミュニケーションを研究しているインディアナ大学のMike Gruszczynski教授は、

 

偽情報の拡散において人工知能がより大きな役割を果たすようになるだろうと述べています

 

 

同教授は、近年、様々なボットが偽情報の拡散に重要な役割を果たしており、人工知能はソーシャルメディア用に個人の写真を偽装することさえ可能であると指摘しています。

 

ボットや深層偽造などの技術があれば、「可能性は無限大と言わざるを得ず、不安になります」と述べました。

 

最近、AIの研究者たちは、思いがけない方法で言語を操作するためのさまざまなプログラムを開発しています。GPT-3はその最たるものでしょう。

 

  • この記事を書いた人
  • 最新記事

藤沢瞭介(Ryosuke Hujisawa)

センスの身につくwebメディア、kyoka.funを立ち上げました!ぜひ楽しんでください〜 個人Twitterは、https://twitter.com/ryosuke_1997 です。良ければフォローお願いします :)

-雑談

Copyright© 共感.fun , 2021 All Rights Reserved Powered by AFFINGER5.