当前位置:首页 > 黑客教程 > 正文内容

欧美专家提议建立第三方机构以监管人工智能

访客56年前 (1970-01-01)黑客教程743

据英国《卫报》 *** 版近日报道,专家表示人工智能会做出严重影响人们正常生活的决定,因此应该建立一个第三方机构确保人工智能使用的透明度和公平性。人工智能的崛起已经导致计算机算法的数量出现爆发式增长,如今已被银行、警察局以及其他机构所广泛使用,但这些算法可以做出一些严重影响人们正常生活的决定。然而,由于科技公司向来对其算法的工作机制讳莫如深——避免其他公司抄袭——他们极少披露有关人工智能如何做出某些决定的详细信息。

人工智能的快速崛起

伦敦阿伦·图灵研究中心和牛津大学的一研究小组在最新报告中呼吁创建值得信赖的第三方机构,以便对人们认为做出错误判断的人工智能决定进行调查。根据现行法律,因人工智能失误而遭受损失的人可以提出挑战,但最新报告却发现这些法律并不能给人们带来有效保护。

根据英国《数据保护法案》规定,人们有权对人工智能做出的决定进行挑战。但与其他国家的企业一样,英国的企业无需公布他们认为属于商业机密的信息。在实践中,这意味着企业不必对人工智能的某个决定做出全面解释,只要描述计算机算法的具体工作机制就行了。例如,如果一个人申请信用卡被拒绝,他可能会被告知,算法充分考虑了他的信用记录、年龄和邮政编码,但此人仍然不清楚申请被拒的原因。

提高算法决策过程的透明度

2018 年欧盟成员国以及英国将施行一项新法规,对挑战人工智能决定的细则做出解释。《一般数据保护条例》草案以法律形式诠释了所谓的“解释权”,但最新报告作者认为,在去年获批的最终版本并未在法律上对这种权利做出任何保证。即便是建立了第三方人工智能监管机构,如何对算法的失误进行管理可能仍是一个难题。强制企业解释人工智能决策过程可能会引发 *** ,因为一些现代的人工智能 *** “基本上都像谜一样”,比如深度学习。

稿源:据 cnbeta 内容整理;封面与配图:百度搜索

扫描二维码推送至手机访问。

版权声明:本文由黑客技术发布,如需转载请注明出处。

本文链接:https://w-123.com/34892.html

“欧美专家提议建立第三方机构以监管人工智能” 的相关文章

黑客滥用 Mitel 设备将 DDoS 攻击放大40亿倍

Hackernews 编译,转载请注明出处:   研究员发现,黑客滥用高影响反射/放大方法,实施长达14小时的持续分布式拒绝服务攻击,放大率达到了破纪录的4294967296倍。 这种攻击载体被称为 TP240PhoneHome (CVE-2022-26143) ,已经被武器化,可以...

美政府悬赏 1000 万美元来寻找能够识别或定位俄黑客组织 Sandworm 成员的信息

据TechCrunch报道,美国政府通过悬赏1000万美元来寻找能够识别或定位黑客组织Sandworm成员的信息,从而加大了对六名俄罗斯情报官员的追捕力度。黑客组织Sandworm的成员为俄罗斯军事情报部门GRU的一个部门工作–以对关键基础设施,包括食品供应和能源部门发起破坏性和毁灭性的网络攻击而闻...

FBI 警告勒索软件攻击食品和农业公司威胁粮食生产

美国联邦调查局警告食品和农业公司,要做好准备,防止勒索软件操作者在播种和收获季节攻击农业实体。联邦调查局的警告指出,以前在这些季节对6个粮食合作社的勒索软件攻击是在2021年秋收期间进行的,2022年初的两次攻击可能通过破坏种子和化肥的供应而影响种植季节。 “网络犯罪分子可能将农业合作社视为有利可...

攻击者部署后门,窃取 Exchange 电子邮件

网络安全研究人员将该 APT 组织追踪为 UNC3524,并强调在某些情况下,该组织可以对受害者环境进行超过 18 个月的访问,展示了其 “先进 “的隐匿能力。 在每一个 UNC3524 受害者环境中,攻击者都会针对一个子集的邮箱,集中其注意力在执行团队和从事企业发展、兼并和收购的员工或 IT 安...

研究人员为关键基础设施系统创建自我意识以抵御黑客攻击

随着勒索软件和世界各地其他网络攻击的增加,系统运营商更加担心复杂的 “虚假数据注入 “攻击,即黑客向其提供虚假的数据,欺骗电脑系统和人员,使其认为操作正常。然后,攻击者扰乱了工厂关键机器的功能,导致其运行不良或故障。当安全人员意识到他们被欺骗时,为时已晚,造成了灾难性的后果。 普渡大学的Hany A...

研究人员在十几个广泛使用的 URL 解析器库中发现了 bug

 Hackernews 编译,转载请注明出处: 研究员在对16种不同的URL解析库进行研究时发现了不一致和混淆,这可能被用来绕过验证,并且易受到黑客的攻击。 在一项由网络安全公司 Claroty 和 Synk 联合进行的深入分析中,他们在许多第三方库中发现八个安全漏洞,这些漏洞是用 C、 Jav...

评论列表

语酌岁笙
3年前 (2022-06-19)

题。强制企业解释人工智能决策过程可能会引发抗议,因为一些现代的人工智能方法“基本上都像谜一样”,比如深度学习。稿源:据 cnbeta 内容整理;封面与配图:百度搜索

笙沉淤浪
3年前 (2022-06-19)

行调查。根据现行法律,因人工智能失误而遭受损失的人可以提出挑战,但最新报告却发现这些法律并不能给人们带来有效保护。根据英国《数据保护法案》规定,人们有权对人工智能做出的决定进行挑战。但与

慵吋邮友
3年前 (2022-06-19)

的具体工作机制就行了。例如,如果一个人申请信用卡被拒绝,他可能会被告知,算法充分考虑了他的信用记录、年龄和邮政编码,但此人仍然不清楚申请被拒的原因。提高算法决策过程的透明度2018 年欧盟成员国以及英国将施行一项新法规,对挑战人工智能决定的细则做出解释。《一般数据保护条例》草案以法律形式诠释了所

痴者欢烬
3年前 (2022-06-19)

“解释权”,但最新报告作者认为,在去年获批的最终版本并未在法律上对这种权利做出任何保证。即便是建立了第三方人工智能监管机构,如何对算法的失误进行管理可能仍是一个难题。强制企业解释人工智能决策过程可能

嘻友叙詓
3年前 (2022-06-19)

们有权对人工智能做出的决定进行挑战。但与其他国家的企业一样,英国的企业无需公布他们认为属于商业机密的信息。在实践中,这意味着企业不必对人工智能的某个决定做出全面解释,只要描述计

发表评论

访客

◎欢迎参与讨论,请在这里发表您的看法和观点。