谷歌发布新政策文件强调人工智能开发中的隐私问题
谷歌6月4日发布了一份题为“生成式人工智能与隐私”的新政策工作文件,强调在人工智能(AI)技术的开发和部署中隐私保护的迫切需要。
该论文由谷歌全球隐私安全和安全政策总监 Kate Charlet 撰写,概述了该公司从一开始就在人工智能产品中嵌入隐私保护措施的方法。
根据 Chartlet 的说法:“人工智能有潜力解决各种各样的任务,从日常琐事到突破性的医学发现。然而,要充分发挥其潜力,我们必须确保人工智能的开发具有强大的隐私保护。”
该政策文件概述了谷歌的隐私设计框架,该框架将长期的数据保护实践、透明度措施和用户控制机制整合到人工智能开发过程中。这种方法旨在降低个人信息无意泄露等风险,同时让用户更好地控制自己的数据。
谷歌的框架解决了人工智能中数据最小化和透明度的关键问题。它强调了在模型训练期间尽量减少个人数据的使用以及确保人工智能系统提供有关其运作方式的有意义的透明度的重要性。
该论文还强调,在快速发展的数字环境中,需要适合年龄的人工智能体验,特别是针对青少年。
根据该论文,将个人数据纳入人工智能训练中,有助于通过教会人工智能理解不同的文化背景,减少偏见并提高模型准确性。然而,隐私保护的主要重点应该放在应用程序层面,因为个人数据泄露的风险更高。
该报指出:“生成式人工智能为增强用户隐私和网络防御提供了重要机会。合成数据和差异隐私等隐私增强技术可以在不泄露个人信息的情况下提供巨大的社会效益。”
谷歌呼吁整个隐私社区共同努力,确保生成式人工智能技术负责任地造福社会。该公司表示,它致力于与监管机构、行业专家和其他利益相关者合作,在强有力的隐私保护与基本权利和社会目标之间取得平衡。
谷歌表示,新政策文件符合其当前促进人工智能和隐私对话的举措。它反映了该公司与政策制定者的积极合作,以促进负责任地使用人工智能,同时保护用户隐私。
本文由币特网发布,不代表币特网立场,转载联系作者并注明出处:https://www.qhbxg.cn/news/d9rkrseq.html