内部文件显示,一个人工智能驱动的系统可能很快将负责评估 Instagram 和 WhatsApp 等 Meta 应用程序中高达 90% 的更新所涉及的潜在危害和隐私风险。2012 年,Facebook(现 Meta)与美国联邦贸易委员会达成一项协议,要求该公司对其产品进行隐私审查,评估任何潜在更新的风险。迄今为止,这些审查主要由人类评估人员完成。
据报道,在新系统下,Meta 表示产品团队将被要求填写一份关于其工作的问卷,随后通常会收到一份由人工智能识别风险的“即时决定”,并附带更新或功能发布前必须满足的要求。这种以人工智能为核心的方法将使 Meta 能够更快地更新产品,但一位前高管表示,这也会带来“更高的风险”,因为“产品变更的负面外部效应不太可能在开始对世界造成问题之前就被阻止”。
Meta 发言人在声明中表示,该公司已在隐私项目上投资超过 80 亿美元,并致力于在满足监管义务的同时为人们提供创新产品。随着风险的演变和项目的成熟,他们会改进流程以更好地识别风险、简化决策并改善用户体验。技术用于为低风险决策增加一致性和可预测性,而人类专业知识则用于对新问题或复杂问题进行严格评估和监督。
特别声明:以上文章内容仅代表作者观点,不代表本站观点或立场。如有关于作品内容、版权或其它问题请于作品发表后与我们联系。