オンラインハラスメントは深刻な問題だが,キーボードの向こうでソフトウェアを開発するエンジニアや設計者たちは,必ずしもそれを意識していはいない。マシンラーニングの普及が進み,そのメリットを享受するテクノロジ企業が増え続ける一方で,実際には関連のないコンテンツを提示することが,ユーザをさらに遠ざける危険性もあるのだ。クラウドの向こうにいるのが人間であることを忘れてはならない。
2016 Collision Conferenceにおいて,Change Sciensesの創設者である講演者のPamela Pavliscak氏は,企業にとってマシンラーニングの急増は,結果的にユーザに対して危害を加えるリスクを伴う,という考えを示した。氏によれば,
ユーザは,観点を拡大しようとしても出られないような,フィルタのバブルに閉じこめられたように感じています。彼らはこの“データの幻影”から逃れたいのです。アルゴリズムが覚えているものは,私たちの記憶とは違います。私が忘れてしまった些細なことを,アルゴリズムは重視します。過ぎ去ってしまったことを執拗に記憶しています。要するに,アルゴリズムはアルゴリズム,私は私,[アルゴリズムが]私に関して持っている情報は不完全なのです。
もうひとりの講演者である,ユーザ研究者でユーザエクスペリエンス設計者のCaroline Sinders氏は,人々を安全に保つ方法をマシンが把握するまで待つことはできない,と指摘する。つまり,
ことばには文脈があります。私たちは今,ハラスメントを説明するために,これらの新しいことばを作り出しています。マシンにこれが理解できるでしょうか?ドキシング(doxing, インターネットに個人情報を晒すこと)について,マシンラーニングにどう説明すればよいのでしょう?ソーシャルメディア上のハラスメントを解決するアルゴリズムの実装に時間が必要なのであれば,アルゴリズムに頼らず,デザイン面でこの問題を軽減することはできないのでしょうか?
InfoQはSinders氏に,ソフトウェアを利用するユーザにもっとよいサービスを提供する上で,エンジニアや企業に何ができるのかを聞いた。ハラスメントの問題に対処するためには開発者が協力し合う必要がある,と氏は言う。
ユーザ研究者や民族誌学者,UXデザイナといった人たちと,もっと密接に協力し合うことが必要だと思います。ハラスメントの問題を解決するためには,共同努力が必要であることは間違いありません。エンジニアだけで,あるいはUXデザイナだけで解決できる問題ではないのです。巨大なシステムに内在する複雑な問題を解決するデザイン思考を用いて,協力して作業することが必要です。解決策は必ずしもオートメーションではなく,他の方法かも知れません。マシンラーニングが解決策ではなく,もっと微妙なプライバシを表現できるような優れたUI/UX実装であり,それを起点とした大規模なインフラストラクチャ開発の方法かも知れないのです。テクノロジがどのように活かされるのかではなく,フロントエンド・エクスペリエンスの設計において,テクノロジがどのように表現されるのかが重要です。
Pavliscak氏は参加者に“敬意とコラボレーション,そして透明性を持ったアルゴリズムの設計”を誓うことを求めて,自身の講演を終えた。
この記事を評価
- 編集者評
- 編集長対応