您的位置:首页 >资讯 > 经济 >

反向操作?解散AI伦理团队引发质疑,微软官方做出回应_世界消息

前段时间,小编向大家介绍过,随着最近GPT-4语言模型的正式投入使用,ChatGPT也带来了全新的插件——网络浏览器和代码解释器,赋予ChatGPT使用工具、联网、运行计算的能力。


(资料图片仅供参考)

更新后,根据全球媒体的反馈来看,GPT-4相较于GPT-3.5确实有很大的性能提升,并且出现了意料之外的学习进化能力。

这一意料之外的进化能力的出现加深了全球用户对于ChatGPT是否可控以及信息安全是否能够得到保障的质疑。

据之前人民网报道,就在3月31日,意大利数据保护机构称对ChatGPT的禁止和调查已于3月31日“立即生效”,意大利数据保护机构表示,该模型存在隐私问题。

而在此前,人们一直担心AI的潜在风险,包括它对工作的威胁以及错误信息和偏见的传播。意大利数据保护机构表示,意大利不仅会阻止OpenAI 的聊天机器人,还会调查它是否符合通用数据保护条例。

此外,爱尔兰数据保护委员会也表示,该机构正在与意大利监管机构跟进,以了解他们采取行动的依据,来保护本国用户的信息安全。

而近期,据相关媒体报道称,不只是意大利,德国、法国等国家也可能跟随意大利的做法对ChatGPT进行停用,并且德国相关组织表示已经与意大利相关组织进行了联系,并讨论了调查结果。

此前,欧洲数据保护委员会表示,已成立ChatGPT特别工作组,这可能是朝着制定人工智能隐私规则通用政策方面迈出的重要一步。

在昨天,意大利数据保护机构周三向人工智能研究实验室OpenAI列出了一系列要求,以解决其对ChatGPT的担忧。在达到这些要求后,ChatGPT将被允许恢复在意大利的使用。

但在对AI安全如此高的关注度下,和OpenAI深度合作的微软却解散了AI伦理团队,据之前36氪报道,微软的人工智能(AI)伦理与社会团队在2023年3月被解散,在该团队被解散后引发了外界的质疑和批评。

近日,微软的首席 AI负责官Natasha Crampton对此进行了回应,解释了微软解散AI伦理团队的原因和新的AI管理策略。

Crampton表示,解散AI伦理团队是因为“单靠一个团队来负责AI的伦理或责任是不够的。”她说,微软采取了与其隐私、安全和无障碍团队相同的方法,即“将负责任的AI融入到整个公司”。

这意味着微软在每个核心业务部门都有高级人员“负责推动负责任的AI”,以及“一个由不同技能和角色组成的负责任的AI网络,以实现更频繁、更直接的沟通。”

此外,该团队的人员在团队解散后被分配到了公司各个部门,但在该团队中也有七名成员在2023年初微软裁员1万人的行动中被解雇。

虽然微软说明了 全新的AI管理策略,但微软这样的做法能否让AI被有效的监管还无法得知,感兴趣的小伙伴可以保持关注。

精选

临近返程,五一出行你用什么地图软件?

新一代骁龙旗舰芯片将至,来看看安卓阵营未来将会怎样发展?

苹果 iOS 17 截图曝光,iPhone 15 Pro静音开关真的改了?

华为一季度经营业绩公布,官方回应充电器USB-A/C 二选一设计

苹果iPhone 15 Pro或支持雷电3,还有14.1英寸iPad

2023年一季度国内智能手机出货排行出炉,苹果、OPPO谁第一?

商务合作 kejimeixue@163.com

关键词: