🎉 亲爱的广场小伙伴们,福利不停,精彩不断!目前广场上这些热门发帖赢奖活动火热进行中,发帖越多,奖励越多,快来 GET 你的专属好礼吧!🚀
1️⃣ #TokenOfLove# |广场音乐节打 CALL
为偶像打 CALL,Gate 广场送你直达 Token of Love!泫雅、SUECO、DJ KAKA、CLICK#15 —— 你最想 pick 谁?现在在广场带上 歌手名字 + TokenOfLove 标签发帖应援,就有机会赢取 20 张音乐节门票。
详情 👉 https://www.gate.com/post/status/13214134
2️⃣ #GateTravel旅行分享官# |晒旅程赢好礼
广场家人们注意啦,Gate Travel 已经上线。带话题发帖,分享你的 Gate Travel 旅行体验、心愿清单、使用攻略或趣味见闻,就有机会获得旅行露营套装、速干套装、国际米兰旅行小夜灯等好礼!
详情 👉 https://www.gate.com/post/status/13172887
3️⃣ #内容挖矿# |发帖还能赚钱
广场长期活动进行中,最高可享 10% 手续费返佣!发布优质内容,如行情解析、交易观点等,吸引更多用户点赞和评论。若用户在互动后 180 分钟内完成现货或合约交易,你将获得最高 10% 的手续费返佣!
详情 👉 https://www.gate.
我们可以完全信任人工智能吗?不,但我们可以监控它
我们热爱机器。我们关注我们的导航系统去往各个地方,并仔细评估关于旅行、餐厅和终身伴侣的推荐,跨越各种应用程序和网站,因为我们知道算法能够比我们更好地发现我们可能喜欢的机会。但是,当涉及到关于健康、工作或孩子的最终决策时,例如,你会信任并委托人工智能代表你行动吗?可能不会。
这就是为什么我们 (FP) 与 Kavya Pearlman (KP) 交谈,她是 XRSI 的创始人兼首席执行官,这个集团是她组建的 X-Reality Safety Intelligence,旨在应对和减轻人类与指数技术之间互动的风险。她当然位于美国西海岸。这是我们的交流
FP. 人工智能的出现有什么新动向?
KP。多年来,科技公司已经使我们习惯于必须放弃我们最宝贵的资产——我们的数据,以换取数字便利。我们总是点击“接受”,从不提问。现在,随着可穿戴设备和𝐀𝐈-𝐢𝐧𝐭𝐞𝐠𝐫𝐚𝐭𝐞𝐝 𝐬𝐲𝐬𝐭𝐞𝐦𝐬的兴起,风险变得更高。现在不仅仅是浏览历史或位置信息。公司正在从我们的身体和思想中提取洞察,从心律和𝐛𝐫𝐚𝐢𝐧 𝐚𝐜𝐭𝐢𝐯𝐢𝐭𝐲到𝐞𝐦𝐨𝐭𝐢𝐨𝐧𝐚𝐥 𝐬𝐭𝐚𝐭𝐞𝐬。然而,几乎没有人问:𝐇𝐨𝐰 𝐝𝐨 𝐰𝐞 𝐭𝐫𝐮𝐬𝐭 𝐭𝐡𝐞𝐬𝐞 𝐬𝐲𝐬𝐭𝐞𝐦𝐬 𝐰𝐢𝐭𝐡 𝐨𝐮𝐫 𝐦𝐨𝐬𝐭 𝐢𝐧𝐭𝐢𝐦𝐚𝐭𝐞 𝐝𝐚𝐭𝐚?𝐖𝐡𝐚𝐭 𝐩𝐨𝐰𝐞𝐫 𝐝𝐨 𝐰𝐞 𝐡𝐚𝐯𝐞 𝐢𝐟 𝐰𝐞 𝐝𝐨𝐧’𝐭 𝐭𝐫𝐮𝐬𝐭 𝐭𝐡𝐞𝐦?𝐖𝐡𝐚𝐭 𝐚𝐫𝐞 𝐭𝐡𝐞 𝐢𝐧𝐝𝐢𝐜𝐚𝐭𝐨𝐫𝐬 𝐨𝐟 𝐭𝐫𝐮𝐬𝐭 𝐰𝐞 𝐬𝐡𝐨𝐮𝐥𝐝 𝐝𝐞𝐦𝐚𝐧𝐝?
这不仅仅是一个技术挑战。这是一个治理挑战,核心是信任的问题。如果没有透明度和问责制,人工智能有风险放大隐性偏见,侵蚀信任,并当系统出错时使人们无处可去。信任不能存在,如果我们不知道数据是如何被收集的,如何被使用,或者决策是如何做出的。
FP. 你真的能创建一个做到这一点的系统吗,透明性和问责制?
KP. 如果你想的话,可以的。举个例子,我们刚刚推出了我们的𝐑𝐞𝐬𝐩𝐨𝐧𝐬𝐢𝐛𝐥𝐞 𝐃𝐚𝐭𝐚 𝐆𝐨𝐯𝐞𝐫𝐧𝐚𝐧𝐜𝐞 (𝐑𝐃𝐆) 𝐬𝐭𝐚𝐧𝐝𝐚𝐫𝐝。它为人工智能和可穿戴技术提供了具体的保护框架,包括关于数据可以和不能使用的明确政策、管理人工智能输出的协议,以及确保其质量的可解释性日志,以便决策不被隐藏在黑箱中,与全球法规的一致性以保护跨境个人,等等。
FP. 为什么公司应该采纳这些标准?
KP。他们确实有动力这样做,因为消费者和粉丝会知道谁是认真的,谁不是。符合标准的组织可以被轻松识别。AI不仅需要更聪明的模型;它还需要更聪明的治理。因为信任并不是自然而然的。它是通过负责任的数据治理来获得、维持和保护的。问题不再是“AI能做到吗?”而是“我们能信任它是如何做到的吗?”
FP. 信任不是自动的,消费者的利益与人类价值观相一致,不一定是这个或那个模型的目标。我们需要新的标准,在公共和私营企业中得到认可。像XRSI这样的组织正在为此而努力。理解、指导、标记、测量等的正确时机就是现在。
弗兰克·帕加诺