舟山新闻网,为您提供最佳全面的最新舟山新闻信息!
当前位置:主页 > 科技 > 正文

专家称人工智能对道德伦理问题提出重大挑战温流晕倒

时间:2017-03-21 17:44 来源:http://www.bmeetg.com/ 作者:舟山新闻网 阅读:

人工智能可高效开展实际任务,如给照片贴标签、理解口头和书面自然语言、甚至帮助确诊等。

人工智能可高效开展实际任务,如给照片贴标签、理解口头和书面自然语言、甚至帮助确诊等。

  新浪科技讯 北京时间3月21日消息,据国外媒体报道,人工智能如今无处不在。从决定购买哪本书、订哪一班航班,到申请工作、获取银行贷款,我们生活的各个方面都与人工智能有着或多或少的联系。

  如今,这类事情主要由复杂的软件系统做决定。人工智能在过去几年中取得了巨大进展,有望从许多方面改善我们的生活。

  几年来,人工智能的崛起已成了必然趋势。人工智能初创公司收到了大笔投资。许多现有的科技公司,如亚马逊、Facebook和微软等巨头,都已创建了研究实验室。可以毫不夸张地说,软件如今就代表着“人工智能”。

  有些人预言,人工智能将掀起一场比因特网更加猛烈的变革。而至于机器带来的迅速变化将对人类产生怎样的影响,几乎所有科技人员都将道德伦理视为关注重点。

  对于谷歌研究带头人和机器学习的领军人物皮特·诺维格(Peter Norvig)而言,虽然由数据驱动的人工智能技术近期取得了一系列成功,但关键问题在于,我们必须弄清如何使这些新系统造福整个社会,而不仅是该系统的控制者。“人工智能可高效开展实际任务,如给照片贴标签、理解口头和书面自然语言、甚至帮助确诊等。”他指出,“而我们必须确保所有人都能从中受益。”

  最大的问题在于,这些软件往往极为复杂,无法参透人工智能系统采取某一行动的原因。如今的人工智能以机器学习技术为基础,导致我们无法透过表面、看个究竟。因此我们只能姑且信任它们。但我们必须找出新方法,有效监控和审查人工智能参与的系统。

  哈佛法学院网络法教授乔纳森·齐特林(Jonathan Zittrain)认为,随着计算机系统日趋复杂,人们或许将难以对人工智能系统进行密切监视。“随着我们的计算机系统越来越复杂、联系越来越紧密,人类的自主控制权也不断减少,这使我很担心。”他表示,“如果我们‘放手不管,忘到脑后”,不考虑道德伦理问题,计算机系统的演化或许会令我们懊悔不已。”

  其他人也表达了同样的忧虑。“我们如何判断这些系统是否安全呢?”美国杜克大学人类与自主实验室主管米西·康明斯(Missy Cummings)指出。她曾是美国海军首批战斗机飞行员之一,如今是一名无人机专家。

  人工智能需要受到监视,但具体做法尚不清楚。“目前我们还未就监视方法达成统一意见,”康明斯表示,“在缺乏系统测试的行业标准的情况下,这些技术很难得到大规模应用。”

随着人工智能的发展,机器人可以胜任更加复杂的工作。例如,日本的一家商店采用了机器人“导购”。

  随着人工智能的发展,机器人可以胜任更加复杂的工作。例如,日本的一家商店采用了机器人“导购”。

  但当今世界日新月异,监管机构往往落后一步。在刑事司法系统和医疗保健等重要领域,许多公司已经开始探索人工智能在假释和诊断等问题上的决策能力。但如果将决策权交予机器,我们就面临着失控的风险——这些系统真能在每起案例中做出正确的判断吗?

  微软研发部门的主要研究员丹娜·博伊德(Danah Boyd)称,我们必须严肃考虑此类系统附含的价值,还要确定最终担责方。“监管机构、公民社会和社会理论学家都强力要求这些技术公平公正、符合道义,但这些理念仍然含糊不清。”

  道德问题对就业影响颇深。随着人工智能的发展,机器人可以胜任更加复杂的工作,能够取代越来越多的人类工人。例如,中国富士康集团已经宣布将用机器人取代六万名工厂工人。福特汽车在德国科隆的工厂也启用了机器人,与人类工人并肩工作。

  此外,如果不断提升的自动化水平对就业产生了重大冲击,便会影响人类心理健康。“人生的意义来自三个方面:有意义的人际关系,充满激情的兴趣爱好、以及有意义的工作。”美国前总统奥巴马医疗顾问、生物伦理学家伊齐基尔·伊曼努尔(Ezekiel Emanuel)指出,“有意义的工作是自我认同感的重要组成部分。”他还表示,在工厂倒闭率和员工失业率较高的地区,居民自杀、滥用药物和患抑郁症的概率也较高。

  因此,社会需要更多的伦理学家。“公司当然会跟随市场潮流行事,这不是坏事,但我们不能指望他们负伦理责任。”麻省理工学院法律与伦理专家凯特·达尔林(Kate Darling)指出,“我们应当将监管措施落实到位。每当有新技术出现,我们都会开展这一讨论,研究应对策略。”

许多工厂中,机器人已经开始与人类并肩工作。有些人认为这会使工人的心理健康受到影响。

许多工厂中,机器人已经开始与人类并肩工作。有些人认为这会使工人的心理健康受到影响。

  达尔林指出,谷歌等许多知名公司已经成立了伦理委员会,监控人工智能技术的研发和部署。但这一做法还应进一步普及。“我们无意阻止创新,但眼下也许我们就该成立这样的机构。”

  有关谷歌伦理委员会的成员和工作细节,我们还知之甚少。但去年九月,Facebook、谷歌和亚马逊达成合作,旨在为人工智能为安全和隐私造成的挑战提出解决方案。一家名为OpenAI的组织致力于研发和推广造福全民的开源人工智能系统。“机器学习必须得到广泛研究,并通过公开出版物和开源代码传播,这样我们才能实现福利共享。”谷歌研究员诺维格指出。

  为制定行业与伦理标准、充分了解当前面临的风险,需要伦理学家、科技人员和企业领导人共同参与。这一问题涉及如何驾驭人工智能、使人类更加擅长自己最拿手的领域。“我们更应关注如何利用相应技术帮助人类思考和决策、而非将人类取而代之。”齐特林指出。

(责任编辑:舟山民生在线)

顶一下
(0)
0%
踩一下
(0)
0%