私たちは機械を愛しています。私たちはナビゲーションシステムに従って場所に行き、旅行、レストラン、そして生涯の潜在的なパートナーについて、さまざまなアプリやウェブサイトでの推奨を慎重に評価します。なぜなら、アルゴリズムは私たちが好きな機会を見つける能力が私たち自身よりも優れていることを知っているからです。しかし、健康、仕事、子供についての最終的な決定に関しては、例えば、あなたはAIを信頼し、自分の代わりに行動させることができますか?おそらく、できないでしょう。
これが私たちが(FP)カヴヤ・パールマン(KP)と話す理由です。彼女はXRSIの創設者兼CEOであり、彼女が組織したX-Reality Safety Intelligenceグループは、人間と指数関数的技術の相互作用におけるリスクを軽減し対処することを目的としています。彼女はもちろん、アメリカの西海岸に拠点を置いています。これが私たちの交流です。
FP. AIの出現で何が起こっているのですか?
KP。長年にわたり、テクノロジー企業はデジタルの便利さと引き換えに、私たちの最も貴重な資産であるデータを手放さなければならないという考えを普通のこととして受け入れてきました。私たちは常に「受け入れる」をクリックし、質問をすることはありませんでした。今、ウェアラブルデバイスと𝐀𝐈-𝐢𝐧𝐭𝐞𝐠𝐫𝐚𝐭𝐞𝐝 𝐬𝐲𝐬𝐭𝐞𝐦𝐬の台頭により、賭けははるかに高くなっています。もはや閲覧履歴や位置情報の問題ではありません。企業は私たちの体や心から心拍のリズムや𝐛𝐫𝐚𝐢𝐧 𝐚𝐜𝐭𝐢𝐯𝐢𝐭𝐲、さらには𝐞𝐦𝐨𝐭𝐢𝐨𝐧𝐚𝐥 𝐬𝐭𝐚𝐭𝐞𝐬に至るまでの洞察を収集しています。それでも、ほとんど誰も尋ねていません:𝐇𝐨𝐰 𝐝𝐨 𝐰𝐞 𝐭𝐫𝐮𝐬𝐭 𝐭𝐡𝐞𝐬𝐞 𝐬𝐲𝐬𝐭𝐞𝐦𝐬 𝐰𝐢𝐭𝐡 𝐨𝐮𝐫 𝐦𝐨𝐬𝐭 𝐢𝐧𝐭𝐢𝐦𝐚𝐭𝐞 𝐝𝐚𝐭𝐚? 𝐖𝐡𝐚𝐭 𝐩𝐨𝐰𝐞𝐫 𝐝𝐨 𝐰𝐞 𝐡𝐚𝐯𝐞 𝐢𝐟 𝐰𝐞 𝐝𝐨𝐧’𝐭 𝐭𝐫𝐮𝐬𝐭 𝐭𝐡𝐞𝐦? 𝐖𝐡𝐚𝐭 𝐚𝐫𝐞 𝐭𝐡𝐞 𝐢𝐧𝐝𝐢𝐜𝐚𝐭𝐨𝐫𝐬 𝐨𝐟 𝐭𝐫𝐮𝐬𝐭 𝐰𝐞 𝐬𝐡𝐨𝐮𝐥𝐝 𝐝𝐞𝐦𝐚𝐧𝐝?
これは単なる技術的課題ではありません。それはガバナンスの課題であり、その核心には信頼の問題があります。透明性と説明責任がなければ、AIは隠れたバイアスを増幅させ、信頼を損ない、人々がシステムの誤りに対して救済を受けられなくなるリスクがあります。信頼は、私たちがどのデータが収集されているのか、どのように使われているのか、またどのように意思決定が行われているのかを知らなければ存在できません。
FP. それを実現する透明性と説明責任を持つシステムを本当に作ることができますか?
KP。あなたは、望むならできます。例えば、私たちは最近、𝐑𝐞𝐬𝐩𝐨𝐧𝐬𝐢𝐛𝐥𝐞 𝐃𝐚𝐭𝐚 𝐆𝐨𝐯𝐞𝐫𝐧𝐚𝐧𝐜𝐞 (𝐑𝐃𝐆) 𝐬𝐭𝐚𝐧𝐝𝐚𝐫𝐝を立ち上げました。これは、AIおよびウェアラブル技術のための具体的なガードレールを提供し、データが何に使用でき、何に使用できないかに関する明確なポリシー、AIの出力を管理し、その質を確保するためのプロトコル、決定がブラックボックスの中に隠れないようにするための説明責任ログ、国境を越えた個人を保護するためのグローバル規制との整合性などを含みます。
FP. なぜ企業はこれらの基準を採用すべきですか?
KP。彼らにはそれを行うインセンティブがあります。なぜなら、消費者やファンは誰が真剣で誰がそうでないかを知っているからです。基準を満たす組織は簡単に特定できます。AIにはより賢いモデルだけでなく、より賢いガバナンスも必要です。なぜなら、信頼は自動的に得られるものではないからです。それは責任あるデータガバナンスによって得られ、維持され、保護されます。問題はもはや「AIはこれをできるか?」ではなく、「私たちはそのやり方を信頼できるか?」です。
FP。信頼は自動的ではなく、消費者の利益は人間の価値観に沿ったものであるとは限らず、必ずしもこのモデルやあのモデルの目的ではありません。私たちは、公共と民間の企業で認識される新しい基準が必要です。XRSIのようなグループがそれに取り組んでいます。理解し、導き、ラベル付けし、測定するのに適した時期は今です。
フランク・パガノによって
16613 人気度
12434 人気度
8886 人気度
2230 人気度
1625 人気度
AIを完全に信頼できますか?いいえ、しかし私たちはそれを監視することができます。
私たちは機械を愛しています。私たちはナビゲーションシステムに従って場所に行き、旅行、レストラン、そして生涯の潜在的なパートナーについて、さまざまなアプリやウェブサイトでの推奨を慎重に評価します。なぜなら、アルゴリズムは私たちが好きな機会を見つける能力が私たち自身よりも優れていることを知っているからです。しかし、健康、仕事、子供についての最終的な決定に関しては、例えば、あなたはAIを信頼し、自分の代わりに行動させることができますか?おそらく、できないでしょう。
これが私たちが(FP)カヴヤ・パールマン(KP)と話す理由です。彼女はXRSIの創設者兼CEOであり、彼女が組織したX-Reality Safety Intelligenceグループは、人間と指数関数的技術の相互作用におけるリスクを軽減し対処することを目的としています。彼女はもちろん、アメリカの西海岸に拠点を置いています。これが私たちの交流です。
FP. AIの出現で何が起こっているのですか?
KP。長年にわたり、テクノロジー企業はデジタルの便利さと引き換えに、私たちの最も貴重な資産であるデータを手放さなければならないという考えを普通のこととして受け入れてきました。私たちは常に「受け入れる」をクリックし、質問をすることはありませんでした。今、ウェアラブルデバイスと𝐀𝐈-𝐢𝐧𝐭𝐞𝐠𝐫𝐚𝐭𝐞𝐝 𝐬𝐲𝐬𝐭𝐞𝐦𝐬の台頭により、賭けははるかに高くなっています。もはや閲覧履歴や位置情報の問題ではありません。企業は私たちの体や心から心拍のリズムや𝐛𝐫𝐚𝐢𝐧 𝐚𝐜𝐭𝐢𝐯𝐢𝐭𝐲、さらには𝐞𝐦𝐨𝐭𝐢𝐨𝐧𝐚𝐥 𝐬𝐭𝐚𝐭𝐞𝐬に至るまでの洞察を収集しています。それでも、ほとんど誰も尋ねていません:𝐇𝐨𝐰 𝐝𝐨 𝐰𝐞 𝐭𝐫𝐮𝐬𝐭 𝐭𝐡𝐞𝐬𝐞 𝐬𝐲𝐬𝐭𝐞𝐦𝐬 𝐰𝐢𝐭𝐡 𝐨𝐮𝐫 𝐦𝐨𝐬𝐭 𝐢𝐧𝐭𝐢𝐦𝐚𝐭𝐞 𝐝𝐚𝐭𝐚? 𝐖𝐡𝐚𝐭 𝐩𝐨𝐰𝐞𝐫 𝐝𝐨 𝐰𝐞 𝐡𝐚𝐯𝐞 𝐢𝐟 𝐰𝐞 𝐝𝐨𝐧’𝐭 𝐭𝐫𝐮𝐬𝐭 𝐭𝐡𝐞𝐦? 𝐖𝐡𝐚𝐭 𝐚𝐫𝐞 𝐭𝐡𝐞 𝐢𝐧𝐝𝐢𝐜𝐚𝐭𝐨𝐫𝐬 𝐨𝐟 𝐭𝐫𝐮𝐬𝐭 𝐰𝐞 𝐬𝐡𝐨𝐮𝐥𝐝 𝐝𝐞𝐦𝐚𝐧𝐝?
これは単なる技術的課題ではありません。それはガバナンスの課題であり、その核心には信頼の問題があります。透明性と説明責任がなければ、AIは隠れたバイアスを増幅させ、信頼を損ない、人々がシステムの誤りに対して救済を受けられなくなるリスクがあります。信頼は、私たちがどのデータが収集されているのか、どのように使われているのか、またどのように意思決定が行われているのかを知らなければ存在できません。
FP. それを実現する透明性と説明責任を持つシステムを本当に作ることができますか?
KP。あなたは、望むならできます。例えば、私たちは最近、𝐑𝐞𝐬𝐩𝐨𝐧𝐬𝐢𝐛𝐥𝐞 𝐃𝐚𝐭𝐚 𝐆𝐨𝐯𝐞𝐫𝐧𝐚𝐧𝐜𝐞 (𝐑𝐃𝐆) 𝐬𝐭𝐚𝐧𝐝𝐚𝐫𝐝を立ち上げました。これは、AIおよびウェアラブル技術のための具体的なガードレールを提供し、データが何に使用でき、何に使用できないかに関する明確なポリシー、AIの出力を管理し、その質を確保するためのプロトコル、決定がブラックボックスの中に隠れないようにするための説明責任ログ、国境を越えた個人を保護するためのグローバル規制との整合性などを含みます。
FP. なぜ企業はこれらの基準を採用すべきですか?
KP。彼らにはそれを行うインセンティブがあります。なぜなら、消費者やファンは誰が真剣で誰がそうでないかを知っているからです。基準を満たす組織は簡単に特定できます。AIにはより賢いモデルだけでなく、より賢いガバナンスも必要です。なぜなら、信頼は自動的に得られるものではないからです。それは責任あるデータガバナンスによって得られ、維持され、保護されます。問題はもはや「AIはこれをできるか?」ではなく、「私たちはそのやり方を信頼できるか?」です。
FP。信頼は自動的ではなく、消費者の利益は人間の価値観に沿ったものであるとは限らず、必ずしもこのモデルやあのモデルの目的ではありません。私たちは、公共と民間の企業で認識される新しい基準が必要です。XRSIのようなグループがそれに取り組んでいます。理解し、導き、ラベル付けし、測定するのに適した時期は今です。
フランク・パガノによって