QCon London Conferenceの会場にいるMicrosoft CTO、技術顧問を務めるLeslie Miley氏にインタビューを行った。このポッドキャストでLeslie氏は、AIのバイアス、サステナビリティ、そしてAIが社会に与える潜在的な影響について語っている。これらの技術が引き起こす可能性のあるリスクを把握し、それを軽減することの重要性を強調するとともに、AI開発により責任と倫理的なアプローチを確保するための開発者、技術企業、個人の責任について論じている。
キーポイント
- 開発者は、AIがもたらす潜在的なリスクを最初から考慮し、開発中に緩和策を講じる必要がある。
- AI技術によって悪影響を受ける可能性のあるコミュニティと関わることは、開発者が潜在的な影響を理解し、より良い製品を作るのに役立つ。
- AIアルゴリズムのオープンソース化は倫理的な懸念に対処するのに役立つが、悪用される可能性があることを開発者は認識しておく必要がある。
- 開発者は、悪意を持った人が悪用しにくいAIツールの開発に努め、テクノロジーのポジティブな利用を促進する必要がある。
- 人文科学の講義を受け、現実の問題に取り組むことは、開発者がAIプロジェクトが人間に与える影響をより理解するのに役立つ。
購読する
トランスクリプト
はじめに [00:44]
Roland Meertens氏: 皆さん、InfoQポッドキャストへようこそ。私はRoland Meertens、今日はLeslie Miley氏にインタビューします。彼はマイクロソフトのCTOの技術顧問で、QCon London Conferenceの初日にAIバイアスと持続可能性について基調講演を行ったので、直接会って話をしています。歴史的なインフラプロジェクトと現代のAI開発の間に興味深い類似点があるため、彼のプレゼンテーションをぜひご覧ください。今日のインタビューでは、責任あるAIというトピックに深く踏み込んでいきます。楽しんでいただき、そこから何かを学んでいただければと思います。
Leslie氏、InfoQポッドキャストへようこそ。あなたはQCon Londonで基調講演をされたばかりですね。どのようなことを話したのか、要約して教えてください。
Leslie Miley氏: Rolandさん、お招きいただきありがとうございます。このような時間と場を設けていただき、感謝しています。いや、実に興味深い講演でした。私は、AIバイアスとサステナビリティ、そして両者がいかに不可逆的に結びついているかについて講演をしました。AIとサステナビリティは、どちらも人間の問題であり、さまざまな形で人間に影響を与えるからです。もし私たちが、まず人間について考え、さらに影響を受ける人間、つまり疎外された集団について考えなければ、本当に問題にぶつかる可能性があるのです。でも、みんな良かれと思って始めるものでしょう。よく言われることです、”地獄への道は善意で舗装されている”、とね。
1950年代から1960年代にかけてアメリカでは州間高速道路システムという主要都市を結ぶ4万6,000マイルの道路が設計・建設され、交通網だけでなく、商品やサービスの輸送網となりました。しかし、それは同時に地域社会を切り離し、大きな社会問題、大きな文化問題、大きな公害問題を引き起こしました。特に国内で最も恵まれない地域では、アメリカのガソリンを大量に消費する車により、CO2や亜酸化窒素、N02の排出量が増加しました。AIのために構築しているインフラ、特に生成AIのために求められているインフラは、同じことになりかねないと私は思っています。私たちはそこから多くの良いものを得ることができますが、社会における不平等によってすでに影響を受けている膨大な数の人々に影響を与えることになりかねません。
AIにおけるトレードオフ [03:21]
Roland Meertens氏: それが今、本当に難しいことだと思うんですね。これらすべての新しいテクノロジー、すべての新しいAIテクノロジーには良いことと悪いことの両面があります。これをどう評価するのでしょうか?あなた自身はバランスがとれていますか?今、私たちができるトレードオフの方法はあるのでしょうか?
Leslie Miley氏: これは、私がTwitter社でセーフティとセキュリティに関するグループを運営していたころの話になりますが、「どのようにして兵器化できるのか」という質問をします。この質問は必ずしも一筋縄ではいきません。なぜなら答えが返ってくるとは限りませんし、質問をしてみて「わからない」と返ってきたら、「誰に聞けばいいのか」という質問をしなければならない場合もあるからです。私たちが常に自問自答しなければならないのは、これが武器になるのかどうかということだと思います。知らないのであれば、誰が知っているのか、どうやってその人たちと連絡を取り、質問をするのか。これが私のフレームワークであり、私の基準です。不思議なことに、オープンAIも似たようなことをやっていたようで、彼らは最初の段階でこのことを理解し、収集するデータと出力に対して非常に広範な手動レビュープロセスを持ち、タグ付けしていました。
完璧ではありませんでしたが、これはスタートだと思います。私たちがやらなければならないことは、技術を設計する際に、その技術がもたらす危害を事前に確認し、実際の技術開発にその緩和策を組み込んでいくことだと思います。
Roland Meertens氏: ChatGPTの難しいところは、いくつかのセーフガードを組み込んだこと、少なくとも組み込もうとしたことだと思います。AIは常に「私は言語モデルであり、これは倫理的ではない」と言います。しかし、すぐに人々はこれを脱獄して、車のハイジャックについて語らせようとし、非倫理的なアドバイスをさせようとし始めたのです。そのとき、どのように展開すればよかったのか、どのようにテストすればよかったのか、どのように考えればよかったのか、おわかりになりますか?
Leslie Miley氏: はい、実はそうなんです。Sam Altman氏に無料でアドバイスしたいとは思いません。彼は私にアドバイスの対価を支払うべきです。私は、最初からデザインに十分な包容力を持たせて、それがどのように使われるかを理解する必要があると思います。もちろん、それを脱獄させようとする人もいるでしょう。また、現実にはない返答をさせたり、くだらないことに使ったり、多少は役立つことに使ったりするでしょう。この技術を利用できるようにしようと急ぐあまり、危害を止められないという事態に陥ることはないでしょう。このポッドキャストでは、「資本主義は一貫している」という言葉を使いたいと思います。市場投入を急ぎ、一番になりたいという欲求、一番に規模を拡大したいという欲求、収益を得たいという欲求は、より慎重なアプローチが持つであろうあらゆる緩和策を常に凌駕します。
それは問題だと思います。だから私はこの講演をしようと思ったのですが、それは、自分のやっていることとその潜在的な危害について、始める前から考えてほしいからです。この25年間で、私たちはエンジニアリングやソフトウェア開発において多くのことを学びました。そして、学んだことの1つに、私はこれを結びつけて考えてみたいと思います。つまり、考えてみてください。25年前には誰もやっていなかったことです。20年前でもまだ非常に未熟な概念でしたが、今では標準的な手法であり、ベストプラクティスとなっており、より良いコード、より一貫したコード、より安定したコードを書くことができ、より多くの人が使えるようになっています。私たちも同じように考え始める必要があります。コードを書いているときにテストを書く手法は、生成AIの何に相当するのでしょうね?わからないが、もしかしたらそういう見方もできるかもしれません。
Roland Meertens氏: 例えば、オープンAIの「DALL-E」インターフェースでは、気に入らないものを生成しようとしていることを検知すると、あなたに戻ってくるようになっているのです。また、偽陽性のようなものもあり、まったく無害のものを生成させてしまうこともあります。しかし、未知の未知に対しては、どうすればいいのでしょうか?自分が考えもしなかった、防ぎようのない非倫理的な事例が常にあると思いませんか?
Leslie Miley氏: そうですね。人類の歴史にはそれがたくさんあります。つまり、火薬は弾丸を発射するために作られたのではありません。お祝いをするために作られたのです。この例えはどこから出てきたのかわかりませんが、どこか記憶の奥底から引っ張り出してきただけなんです。火薬を開発した人たちは、「これで大量破壊兵器を作られないようにするにはどうしたらいいか」と考えていたわけではないでしょう。だって、"あ、これすごい。花火のようだ "と。でも、それを難しくすることはできると思うし、ここで適切な言葉を使うなら、より良い天使に従うように促すことはできると思うんです。Twitterは、最近の騒動の前、そして今でもこの機能があるかもしれませんが、何か攻撃的なツイートをしようとすると、実際に警告が表示されます。見たことがあるかどうかわかりませんが。
政治的な言説に反応する場合、通常、私の反応はそれほどかけ離れたり、辛辣なものになることはないのですが、「ねえ、本当にこれをツイートしていいのかな。攻撃的で、人々を不快にさせる可能性があるように見えます」という警告が表示されることがあります。ただ怒り狂ってツイートして信頼を得るのではなく、より良い天使と触れ合うための良い促しになったと思ったんです。不思議なことに、ネガティブなコンテンツはソーシャルメディア上でより高い影響を持つというデータへの回答でもあるのです。
Roland Meertens氏: また、ソーシャルメディアは、最初は友達に会ったり、好きなことを投稿したりできる楽しいものでしたが、いつの間にか、人々が政治的なグループに分かれてお互いを攻撃し合うようなエコーチェンバーになってしまいました。
Leslie Miley氏: 素晴らしい例えですね。私は、論理的に非論理的な結論を出したいと思っています。もし私たちが生成AIで行っていることが、ソーシャルメディアに対するコミュニティの孤立化と同じような社会的影響を及ぼすとしたらどうでしょう。つまり、それは実際に恐ろしいことなのです。今、私たちはただお互いを嫌い、エコーチェンバーに入り、時々飛び出してきては、右翼はこう、左翼はああ、ナチスはこう、ファシストはああ、と話しているのですから。AIはそれをさらに悪化させる可能性があります。
Roland Meertens氏: また、AIは同じコミュニティ内で、少しは助けになるかもしれない。例えば、AIに対する恐れのひとつに、少し貧しい人々の仕事が奪われる可能性があるということがあります。しかし一方で、ChatGPTは、高学歴ではない人が、完璧な応募書類を書くことができるようになる。十分な教育を受けていない英語を母国語としない移民でもChatGPTの様なツールを使えば完璧な英文を書くことができるのです。彼らにもチャンスがあると思いませんか?
Leslie Miley氏:そうだと思います。今、読んだり聞いたりしたものを思い浮かべようとしているところです。人類のためになるものを本当に作るには、生成AIのCERNが必要なような気がします。おっしゃることはよくわかります。ちょっと、人がこうするのを助ける、人がああするのを助ける、みたいな感じです。そうですね、その可能性はありますし、そうなることを望みます。ただ、私が言ったように、私たちがより良い天使に従うかどうかはわかりません。おそらくそうなるでしょうが、リスクもあります。これは私の講演の一部ですが、もしこれを別の国にあるコミュニティに展開した場合、言語を学ばなければならなかったり、最高の学校制度が整っていないかもしれませんが、基本的にインターネット上の知識の総和にアクセスすることができます。これはChatGPT 4.0 が訓練したことだと思いますが、その裏側ではもし100万、500万、1億、2億人がこれを行ったとしたら、その炭素コストはどうなるでしょう。データセンターはどこに行くのでしょう?どれだけのCO2を使うことになるのでしょうか?
しかし、その行動によって、同じように権利を奪われた人たちの生活に影響を与えることになります。例えば、自動車を所有することを許可し、モビリティを生み出し、人々に仕事を与え、環境へ大量のCO2を送り込み、大都市を発展させ、産業を発展させ、人々を教育し、そして石炭を燃やす発電所を建設しなければなりませんでした。まるで、良いことをしても、悪いことが起き、その悪いことを緩和しようとし、そのパターンを繰り返し、悪いことを緩和しても元の問題を解決することはありませんでした。
開発者の責任 [12:08]
Roland Meertens氏: このようなことの責任はどこにあるのでしょうか?例えば、オランダでは、Metaのデータセンターについていつも議論していますが、オランダの人はみんな大反対しています。開発者の責任というのはどこにあるのでしょうか。
Leslie Miley氏: 協調的なアプローチです。Metaだけではありませんし、地元の州や国の政府だけでもありません。また、地域社会でもあり、どのようにすればみんなの声を聞くことができるのでしょうか。例えば、Metaが「この場所にデータセンターを設置し、石炭を使って稼働させる」と言った場合、南太平洋の島や家がなくなってしまう人たちはどうするのでしょうか。どうやったら声が出るのか?ということなのです。私が言いたかったのは、講演ではうまく伝えられなかったと思いますが、今日の私たちの選択は、もはや家や職場や国にとどまらないということです。多くの場合、世界中に広がっているのです。オープンAIがやっていることは、人々の仕事だけでなく、環境の観点からも、世界中に影響を与えることになるのです。
Meta、Google、マイクロソフト、その他すべての企業が行っているデータセンター建設も同じことです。このような質問を持ってきたのは、答えがないからであり、それは理解しています。しかし、グローバルな私たちが対話を始めなければならない質問です。なぜなら、そうしなければ、種として長期的に生き残ることはできないと思うからです。それは、私たちがこのサイクルを断ち切らない限り、種として長期的に生き残ることはできないと思うからです。このサイクルは、私たちが毎日目にし、世界中に影響を与えている恐ろしいもので、私たちはこれを止めなければなりません。
Roland Meertens氏: このようなサイクルから脱却するのは難しいことだと思います。しかし、その過程で多くの美しい都市が破壊され、特にアメリカでは、CO2を排出する大型車でしか移動できない郊外の巨大なスプロール化が、いまだに多くの問題を引き起こしています。しかし、例えば、ヨーロッパの多くの都市では、ある時点で人々が学び、高速道路を解体し始めたと知っています。また、例えば、サンフランシスコ周辺の環状道路が環状道路でなくなっていることも目にします。具体的にこのAIの場合ですが、私たちが犯した間違いからより早く学ぶ方法、あるいはこうした間違いが起こる前にそれを察知するには、何かアイデアはありますか?
Leslie Miley氏: ロシアによるウクライナ侵攻のような不法な経済的影響でエネルギー価格が高騰して、エネルギー会社が何十億、何百億、何千億という利益を上げるのは、とても馬鹿げています。私はこう言うんです、「これは間違ったインセンティブだ。全く間違ったインセンティブだ」。 実際に起こり得るのは、彼らからお金を取り上げて、「あなたはこれで利益を得ることはできません。危害を与えても利益を得ることはできません。あなたが作り出した状況から人々が購入する必需品で利益を得ることはできません 」ということです。そして、それが私たちがしなければならないことで、とても難しいことです。「あぁ、あなたが大金を稼いだのは知っているが、それを手にすることはできないよ」と言うことなのです。
Roland Meertens氏: では、これをAI企業に応用するにはどうしたらいいのでしょうか?何で利益を得て、何からでは利益を得られないのか、どう伝えるのでしょうか?
Leslie Miley氏: まあ、この際、Metaか、あるいはTwitterでスピードアップしましょうか。Metaの方が少しはマシだと思います。Metaを見れば、あなたの広告配信が人々を過激化させ、悪行を引き起こしCOVIDワクチンを接種する代わりに馬の駆虫薬を服用させることが実証可能です。なので、あなたのプラットフォームが公共の利益に反して使われたときにあなたを見つけること始めるだけです。しかし、ある時点から、企業が行った損害に対して責任を持つようにしなければならないとも思います。企業が発生させた損害に対する責任を問う唯一の方法は1億ドルや2億ドルではなく、50億や100億、あるいは500億ドルの罰金にすることで企業に最低限間違ったことをしないインセンティブを与えることができるのです。
Metaはわかっているんです、CTOがこう言っています。「私たちの仕事は人をつなぐことだ。もしそれが、人が死ぬことを意味するのであれば、彼らをつなげさえすれば、それでいい。私たちのプラットフォームを使って、人々が殺し合うことになっても、つながっていればそれでいい」。これは彼の言葉です。私は、「ああ、ちょっと待ってくれ。そんなこと言っちゃダメだ」と思いました。そして政府としてこういうべきです、「いやいや、そんなことで利益を得ることはできません。ある国で大量虐殺を引き起こす憎悪を煽って利益を得ることはできません。人々が自分の健康を害するような誤った情報で利益を得ることはできません。そのようなことから利益を得ることはできないし、そのような利益は我々が取り上げます」。そんなことをしたら、企業はもちろん対抗するでしょうが、アルゴリズムを変えてしまうかもしれませんね。
短期と長期のインセンティブのバランス [17:41]
Roland Meertens氏: しかし、例えば、短期と長期の間でどのようにバランスを取るのでしょうか?例えば、ChatGPTを見ると、短期的には、人々がより良い手紙を書くのに役立ち、学生が学ぶことができ、とても素晴らしいことだと思いますが、スパムメッセージや大量の長文が人々に送られるようになることは、おそらくすでに予想できます。Twitterで話していたような、グループ間の言説を誘導して、より多くのアイデアや奇妙なアイデアを自動的に生み出し、実際にそのアイデアを紙に書き出すような、邪悪な使い方も可能です。短期的な悪と長期的な悪の間で、短期的な善と長期的な善をどのようにバランスさせるのでしょうか?
Leslie Miley氏: そこで、アルゴリズムをオープンソース化し、モデルの学習内容をオープンソース化することが有効だと思います。モデルを導入して、それが右肩上がりになり、そこから大きな収益を上げられるようになれば、社会に影響を与え始めることになります。これはどういうことなんだろうという議論が始まるときだと思うんです。私は、相互に排他的だとは思いません。Twitterがアホの掃き溜めにならなくても、Twitterを持つことは可能です。Metaがファシストの過激化ツールにならないようにできます。児童虐待の映像を作らないDALL-EやMIDJOURNEYがあってもいい。それはすべて可能です。それが実現し、そのための後ろ盾がなければ、つまり、後ろ盾というのは規制のことですが、企業は自分たちの利益のために行動するようになり、アルゴリズムを変更することになる......。
先ほど言ったように、Metaは自分たちのアルゴリズムを熟知していますが、それを変えると他の指標に打撃を与えることも知っているので、変えないのです。このようなことは、私たちが背中を押してあげなければならないことだと思うのです。繰り返しますが、このような企業は、私は今回取り上げた企業のほとんどで働いたことがありますが、世界で最も賢い人たちがいると言うのが大好きです。もし、子供を搾取することなくお金を稼ぎ続ける方法がわからないのであれば、お金を稼ぐ資格はないのかもしれませんね。
オープンソースAI [19:42]
Roland Meertens氏: しかし、例えば、オープンソースには、固有のリスクや問題があると思いませんか?例えば、私が悪者になった場合、OpenAIのDALL-Eを使って、特定の画像を生成することはできません。Stable Diffusionをダウンロードすることはできますが、これは一定のセキュリティレベルがあり、変なものを生成しようとすると、実際にはリック・アストレイの画像が表示されるようになっています。
Leslie Miley氏: リックロールされるんですね。わぁ、すごいですね、
Roland Meertens氏: リックロールされるんです。しかし、問題は、セキュリティを回避するために1、2行のコメントを解除しなければならないことです。悪意のある者は商用ソフトウェアではなくオープンソフトウェアを使用しています。なぜなら、オープンソースのソフトウェアであれば、好きなアーティストや好きな画像に対して連携させることができるからです。
Leslie Miley氏: それは常に例外であり、ルールではないと思いたいし、それは常に存在するが、スケールしない。それが私の希望です。そのようにスケールしないという証拠はたくさんあると思います。人々はそれを利用するのでしょうか?そうですね。今日、人々は3Dプリンターで銃のパーツを印刷しているのでしょうか?はい。3Dプリンターを禁止しますか?いいえ、3Dプリンターにファームウェアをインストールし、それができないようにするのですか?それは不可能だと思います。誰かがマイクロコードを書き換える方法を見つけるかもしれません。しかし、この技術の素晴らしいところは、拡張性がないことだと思います。もしスケールしないのであれば、確かにスケールしますが、それはMetaレベルでもGoogleレベルでもTwitterレベルでもないでしょう。
Roland Meertens氏: あなたはある時点である会社が非倫理的な質問にすべて答えてくれる悪いGPTを作ることを恐れないのですね。それは、価格は2倍であっても人々は何か邪悪なものを作りたいときにはいつでもそちらに乗り換えるだろうし、一般的にも悪いGPTに乗り換えてしまう。なぜならGPTは大規模な言語モデルに過ぎないというレクチャーを常に受ける代わりに毎回多くの答えを与えてくれるからです。
Leslie Miley氏: それはSilk Roadの閉鎖を意味します。つまり、悪質業者を追い詰める方法があるわけで、それは常に猫とネズミのゲームだと思うのです。Twitter社で安全性とセキュリティに携わっていた私は、これを「グローバルなモグラたたきゲーム」と呼んでいました。なぜなら、これらのツールがユビキタスになり、使いやすくなれば、誰でもできるようになるからです。以前は、コンピュータを持つにはコストがかかるため、参入のハードルが高かったのですが、今はそれがありません。それが、高速のインターネットに接続できるようになると、ちょっと敷居が高くなります。でも今は、多くの人がiPadやタブレット、あるいは150ドルのChromebookや80ドルのChromebookでこの開発を行えるようになっているんです。
また、人件費がバカみたいに安い国もありますし、ただ人が座っているだけの国もあります。ロシアのインターネット・リサーチ・エージェンシーは、トロールファームがどんなことができるかを私たちに教えてくれました。そして、このトロールファームは、今や世界中に複製されています。人々はそれをただ投げ入れているのです。私が言いたいのは、悪質な行為者は常に存在するということです。悪質な業者は常にツールを悪用する方法を見つけるでしょう。私たちが注目しなければならないのは、その影響を抑えるために、どのような種類の規制を行うか、という点です。その点については、長年にわたって改善されてきたと思います。しかし、ダークウェブはまだ存在します。十分な動機があれば、まだこのようなことができます。そうです。誰かが、爆発物や悪いものの自分のバージョンを作ることができるモデルを考え、あるいは誰かがリリースするでしょう。そして、私たちはどうすべきなのか、様々な規制がそれを監視することになるでしょう。それにより、悪いバージョンは作成されず、リリースされることもないでしょう。
個人の責任[23:25]
Roland Meertens氏: では、このポッドキャストの聴衆であるソフトウェア技術者に話を戻すと、開発者が習慣化できることは何でしょうか?これを防ぐために、コミュニティとしてできることがいくつかあるでしょうか?AIバイアスに対して、個人としてできることはありますか?
Leslie Miley氏: これは面白いですね。私はちょうど、スタートアップの創業者のために、「ああ、顧客と話しなさい」「顧客の前に出て、定期的に顧客と話しなさい」と言ったところでした。私は根本的にそう信じていますし、それが答えの一部だと思います。しかし、もうひとつの答えは、影響を受ける可能性のある人、あるいは影響がどのようなもので、どのように感じられるかを知っている人に話を聞くことだと思います。私たちは、Twitterの悪用や有害なコンテンツに影響を受けているコミュニティに参加することで、その影響を緩和することができるようになりました。それが、あなたの仕事です。そのようなコミュニティに参加する必要があるのです。真摯に向き合わなければならないのです。ただフォームを送るだけではダメなんです。一緒に座って、彼らの話を聞き、それがもたらす影響に共感しなければならないのです。
"まあ、見なきゃいいじゃん "みたいな人が多いんですよ。まるで、「誰かがDMを送ってきたけど、そんなの見なくていいよ」みたいな感じです。そうですね、もし誰かが... つまり、私は悪い、ひどいツイートを受けたことがあります。ヘイトメールを受け取ったこともある。ネットで発言したことで脅迫されたこともあるし、それはあなたに影響を与える。もし誰かが新製品を作るとき、悪影響を受ける可能性のあるネットワーク外の人たちと話をすれば、多くのことを学ぶことができます。この部分が、時に欠けているように思います。規模を拡大しようとするあまり、また製品を世に送り出そうとするあまり、私たちは人間とのつながりを失い、顧客との人間的なつながりを失っています。潜在的な影響を受ける可能性のある人たちとのつながりがない。色々な意味で、この例も出しましたが、人々は気にしていないのです。
この例として講演の中で次のような話をしました。Robert Moses氏は、アメリカの高速道路システムの一部を設計したのですが、橋が低すぎて、マイノリティのいる地域からバスがビーチに行けないようにしました。しかし、もしこの男が暴力的な差別主義者でなく、他の人たちを連れていき「このことがもたらす影響を見てください」と言ったら、もしかしたら彼らは「おいおい、こいつの言うことは聞かないぞ、俺たちは違うことをするんだ」と言ったかもしれないのです。
Roland Meertens氏: それは、人々が世界全体を一度に改善しようとすることが多く、その場合、あなたのアプリを買うことができるアメリカの金持ち全体を意味することが多いという問題かもしれません。しかし、例えば、私がシリコンバレーにいるときはいつも、この人たちは世界全体を改善しようとしているのに、オフィスの前にいる人のホームレスすら解決できないのかと、とてもがっかりするんです。
Leslie Miley氏: この10年間、サンフランシスコに住んでいると、まるで、サンフランシスコのホームレスの問題が、テクノロジーの没落を予兆しているかのように思えます。ホームレスの問題が深刻化するにつれて、テクノロジーの問題も深刻化しています。その通りだと思います。自分の家を大切にできない人が、世界を大切にできるわけがない。サンフランシスコの技術者の家は?サンフランシスコが好きな人、私の地元で故郷ではあるけど、嫌になる。失望ではなく、うんざりしているのです。政治家にもうんざりしている。システムから富を引き出すことに時間と労力を費やし、サンフランシスコの街で日常的に起こっている人道的危機を犠牲にしているビジネスリーダーにうんざりしている。
つまり、テック企業に「この問題を解決している都市や組織と協力して、それをより大きくしよう」みたいになってほしいし、そうすれば、我々が触れ合う人間性が、より良い製品を作る手助けをしてくれるかもしれません。
Roland Meertens氏: 同じ質問を繰り返すことになりますが、開発者はこうあるべきだというような具体的なことはありますか?自分の時間を使って投票すべきなのか?問題を提起すべきなのか?
Leslie Miley氏: 人文科学の授業を受けなさい。誰かがそう言っていました。何ができるのでしょうか?これは技術的な問題ではありません。これは人間の問題です。どうしたらもっと人間性に触れられるか、みたいなことだと思うんです。オフィスに行くのに人を踏み越えていかなくてはならないなんて、いつから許されるようになったんでしょうか?でも人々はサンフランシスコで毎日そうしています。サンフランシスコがオフィスに戻らなくなった今日、そうでもないかもしれませんが、私たちはそれでいいのです。それが問題なのです。「私たちは世界を変えている」と言いながら、外には危機的状況にある人々がいて、それに対処する気もないのに、どうして平気でいられるのか、私には理解できないのです。偽善的であり、認知的不協和があり、私には理解できないのです。今言ったように私の地元ですが、今、自分の家を片付け、荷物をすべて倉庫に入れ、サンフランシスコを離れました。
実は、この20年間で初めて、カリフォルニアに住所がないんです。なぜなら、「これは解決できない」と思ったからです。それは私の感覚を攻撃しているのに、問題に対処していない場所で税金を払っているのです。私は、この20年間、この問題に全く対処していないところで技術によって富が引き出されるのを見てきました。一部の人は取り組んでいます。Mark Benioffの功績は、サンフランシスコの未就労者向けサービスのために年間3億ドルを調達するイニシアチブを後援したことです。それは、この問題を解決するための一部なのです。言いたいことはともかく、自分が巨大なタワーを建てた街を、誰にとっても住みやすいものにしようと、彼が取った大きな、大きな、大きな取り組みなのです。Benioffでもなく、Bobでもなく、Maryでもないのですから。Maryではなく、そこに住むすべての人に発言権があるのです。
あまり時間はかけたくないが、開発者、プロダクトマネージャー、共同創業者には、自分のしていることがどのような影響を及ぼすのかを理解する責任があると思うのです。もし理解していないのであれば、また、理解していないと思うのであれば、学びに行く必要があるのです。ChatGPTは、おそらくあなたを助けてくれるでしょう。個人的には、むしろ出かけていって誰かと話してほしいです。この種の問題で影響を受けている人たちと話をし その影響が何なのかを学んでほしいのです "プロダクト・マーケット・フィットはできるのか?"というだけではありません なぜなら、プロダクト・マーケット・フィットは、あなたがすべきことではない場合があるからです。なぜなら、プロダクト・マーケット・フィットは、やるべきことではない場合があるからです。あなたがすべきことは、その影響がなんであるかを問い、人々が悪者になりにくくなるような製品を作ることかもしれない。
技術の集約化 [29:41]
Roland Meertens氏: 最後に、もう少し広い意味で、最近の大手のハイテク企業がどのような行動をとっているかについて言及したいことはありませんか。
Leslie Miley氏: この話、何度でも話せますね。シリコンバレー銀行の件は興味深い話です。というのも、スタートアップの共同創業者のほとんどが「この銀行は私たちの背中を押してくれた」と言うような存在だったからです。「この銀行は、私たちの背中を押してくれました。資金が必要なとき、デットファイナンスを受け、ブリッジファンドを受け、これを受け、あれも...」。シリコンバレー銀行は、多くの共同創業者や多くのスタートアップの救世主でしたが、シリコンバレー銀行は彼らが助けた人々によって殺されました。つまり、まるでクレイジーな街なんです。"待てよ "という感じです。
Peter Teal氏の支援を受けた企業のうち、いくつもの企業がシリコンバレー銀行からつなぎ融資を受けていたはずです。そうですね、企業は正しいことをしなければなりませんし、資金がそこにあれば、資金を得ることができないと考えるのでしょう。たぶん、正しいことをしなければならないのでしょう。しかし、その裏側でシリコンバレー銀行についてツイートしていた人々の総資産が、シリコンバレー銀行を存続させるのに十分だったという事実もあるのです。私は、このようなことがあると思います。私は、最近のハイテク業界の「アホ化(assholification)」と呼んでいます。本当に自分のためだけのことをやっていて、自分のいる家を焼き払うような人たちがいます。あるいは、自分の家を燃やさないのであれば、自分が支持していると言っている人たちの家を燃やす、それぐらいひどいことです。
どうしてこんなことになったのか、私にはわかりません。80年代か90年代にニューヨークの銀行を襲った金融危機のように、人々がジャッカルの群れのように自らを追い込んでいったように私には見えますね。シリコンバレーで起きているのは、そういうことなのでしょうか。これが私たちの姿なのでしょうか?銀行を潰す覚悟があるのなら、それはそれで役に立ったかもしれない、多くの人がそうした、というのが答えだと思います。では、このような行動の結果はどうなるのでしょうか。例えば、Elon Musk氏がTwitterで嘘をつくのはどうなのでしょうか。Elon Musk氏は「解雇はこの人数だけだ」と言いながら、より多くの解雇を行う。また、「広告を減らすつもり」と言いながら、広告を減らさず従業員を雑に扱い解雇する。そしてその従業員は解雇されたことを知らない。また、彼は移動に問題がある人をオンラインで罵り、バカにしているが何の反発もないように見えます。
つまり、彼は自分の会社を買ったときよりも240億ドルも安い値段で評価しているわけですから、その反動かもしれません。しかし、このような悪行が、他の方法で模倣されているのではないでしょうか。労働者を労働者として扱う必要があり、それはオフィスにいる必要があるということです。つまり、彼らの時間を把握できるようにする必要があるのです。" 私たちは、ただのアホの集団になりつつあるのでしょうか?私はそう思っています。Mark Benioff氏についてもう一度話をしようと思います。彼は「いま、多くの技術系CEOが自分の内なるElon Musk氏と触れ合うべきか尋ねている」と言っていると思います。私は「おお、それは大変だ」と思いましたが、彼はそれを実行しているのではないでしょうか?なぜなら、彼は同じようなことをたくさんしているからです。彼は従業員に「戻ってこなければならない」と言い、従業員を解雇し、従業員の生産性を点数化したがるのです。
他の企業も同じようなことをしている。Mark Zuckerberg氏のいくつかの発言を確認することができます。今年の初めごろ「君たちの中には、ここにいるべきでない人もいる」というようなことを言っていました。つまり、昨年彼は効率化を追求し、そう言っていたのです。でも、効率化を追求していたなら、メタバースに使った100億円はどうなんでしょうね?あれはあまり効率的とは思えません。でも、自分のミスのせいで人々にもう仕事がないと言っているだけで、それに対して悪びれた様子もなさそうです。
Roland Meertens氏: ポッドキャストを締めくくるのにふさわしい方法だと思います。Leslie氏、今日はどうもありがとうございました。
Leslie Miley氏: いいえ、お招きいただきありがとうございます。
注: Roland Meertens氏はBumble Inc.の機械学習サイエンティストとして働いている。ここで述べている見解は、彼自身のものであり、彼の雇用主のものではない。