見出し画像

ソーシャルメディアをより節度あるものにするために取り組むSRIのCenter for Vision Technologies

SRIはDARPAからの資金提供を受け、人間と共に作動しオンライン上で社交性を求めるAI技術を構築

ソーシャルメディアは世界中の何十億もの人々をつなげていますが、同時に敵対心やヘイトスピーチの温床にもなっており、この現象はますます緊急性の高い課題になってきています。反社会的な行為から生じる重大な危害を最小限に抑えつつ、参加者同士のポジティブなつながりと正確な情報の流れを維持するにはどのようにすればよいでしょうか。SRIインターナショナルの研究者たちは、まさに今この難題に取り組んでいます。

米国防高等研究計画局(DARPA)の資金提供のもと、この研究チームはピッツバーグ大学の科学者と共同でThe Great Facilitator(ザ・グレート・ファシリテーター:TGF)と呼ばれる、人間と共に作動し、ソーシャルメディアの参加者同士で建設的な対話を促すように設計されたAIテクノロジーを構築しています。SRIのCenter for Vision Technologiesに所属するシニアコンピューターサイエンティストであり、このプロジェクトの主任研究員を務めるKaran Sikkaは、「個人の考えを表現することは妨げたくないものの、それと同時に明らかなヘイトスピーチも避けたいのです。しかし、グレーゾーンも存在しますし、過剰に表現を制限することも望みません。そこで、言論の自由と憎悪に満ちたことばのバランスをどのようにとるか、実用的なアプローチが、我々の技術の差別化につながりました。」と述べています。

The Great Facilitatorのシステムは、主にソーシャルメディア上の投稿やグループ内の会話の意図や意味を自動判定する技術と、この判定に基づいて抑制的なコンテンツを自動生成する技術との2つで構成されています。

TGFの核となるのはトップダウン型の機械学習ですが、これはコンテンツが適切かどうか判断する人間のモデレーターからのインプットをもとに学習し、最終的に建設的な対話を提案します。コンテンツは、プラットフォームのルールや許容される行為に関するガイドラインに基づき、適切かどうかが判断されます。例えば、あるソーシャルメディアのテクノロジーでは、参加者が他人に金銭を要求することや製品の広告を出稿すること、ヘイトスピーチやいじめに加担することを禁止するなどの規約があるかもしれません。ある投稿が、一般的な節度(不快な言葉や明らかなヘイトスピーチなど)とコミュニティのガイドラインという2種類の制限のいずれかに抵触すると、TGFはその投稿がプラットフォームのガイドラインから外れている理由を示した報告書をユーザー宛に作成します。ユーザーは、投稿を自分で修正するか、TGFの推奨案を使用することを求められます。このTGFの推奨案には、ヘイトスピーチや偽りの情報、いじめ、その他不適切とみなされることを含まないようにするにはどうすればよいかについての詳細が示されています。例をあげると、TGFはユーザーの投稿について「このように書き換えてはいかがですか」、と提案してくれるのです。

TGFの重大な特徴は、投稿の向こう側にいる人物とのダイナミックな関わり合いです。「TGFは、ユーザーがスレッド全体の議論を把握し、プラットフォームのガイドラインに準拠した、建設的な進むべき道を見出すことを後押しします。」とSikkaは述べています。

「TGFは、節度を保つために積極的にソーシャルネットワークに介入する上で、大きなステップアップです。このテクノロジーは、10年以上にわたるSRIのソーシャルメディア分析とアプリケーションに関する研究開発の一部です。私たちはまず、投稿されたコンテンツとユーザー間のつながりをまとめて分析し、次にユーザーの動画や音声、テキスト、静止画を共通の幾何学的空間に投影するフレームワークを適用しました。」と、Center for Vision TechnologiesのVision and Learning担当シニアディレクターであるAjay Divakaranは述べています。

The Great Facilitatorの実証実験の結果

TGFの概念実証実験は、何千もの活発なコミュニティを擁するソーシャルメディアプラットフォームのReddit上で実施されました。Sikkaとその研究チームは、サブレディット(ウェブサイト上の、あるトピックに特化したフォーラム)を作成し、実際のユーザーインタラクションに関する研究を実施しました。このサブレディットでは、ユーザーが提案された言い換えのコンテンツを検討したかどうか、もしくはユーザー自身が言い換えたのかどうかを測定できました。好結果のやり取りは、元のフレーズを変更した投稿や新しく改善したフレーズとし、また、提案されたフレーズに基づいた変更の頻度も測定しました。この実験段階のエビデンスは、人々を徐々に巻き込むことで、節度あるトーンのコミュニケーションを促すことに成功したことを証明しました。「この結果は素晴らしいものでした。節度を保ったコミュニケーションができれば、互いにより深い意思疎通ができるのではないかと私たちは期待しています。」とSikkaは述べています。

Sikkaによると、次のステップにはこのシステムのベータ版テストを実施し、さまざまなソーシャルプラットフォームでの実験を行い、効率的かつ合理的に透明性とユーザーコントロールを最大化するとともに、人間のモデレーターの負荷を軽減することがあげられています。Sikkaとその研究チームは、この技術をウェブブラウザの一部として構築したいと考えています。このテクノロジーが普及すれば、透明性が向上するとともに、ユーザーのアクセシビリティとユーザビリティに寄与するのではないかと期待されています。ブラウザに直接組み込むことで、ソーシャルメディアのプラットフォームだけでなく、デジタル出版物のコメント欄やパブリックフォーラム、オンラインレビューなどにも標準的なフィルターを提供できるとともに、より思慮に富み、敬意のあるオンラインコミュニティを後押しすることができるのです。

本記事は、Agreement No. HR00112290024の米国防高等研究計画局(DARPA)の支援を受けた研究を基に作成しています。

編集/管理:熊谷 訓果/ SRIインターナショナル日本支社

みんなにも読んでほしいですか?

オススメした記事はフォロワーのタイムラインに表示されます!