推广 热搜: 公司  快速  中国  上海    未来  企业  政策  教师  系统 

ChatGPT人工智能威胁人类是伪命题,最大威胁是智能背后的“人”

   日期:2024-12-09     作者:caijiyuan    caijiyuan   评论:0    移动:http://fabua.ksxb.net/mobile/news/3975.html
核心提示:ChatGPT人工智能威胁人类是伪命题,最大威胁是智能背后的“人”人工智能ChatGPT技术的不断迭代,展示出了人工智能强大的应用功能
ChatGPT人工智能威胁人类是伪命题,最大威胁是智能背后的“人” 人工智能

ChatGPT技术的不断迭代,展示出了人工智能强大的应用功能和对不同行业领域的冲击力。从人们惊呼ChatGPT为代表的人工智能将会让大量的人失业,到ChatGPT快速的进化将会对人类造成威胁的说法,ChatGPT在热捧和争议中无疑已成为当前人工智能领域无可非议的“带头大哥”。

ChatGPT人工智能威胁人类是伪命题,最大威胁是智能背后的“人”

人类自从发明计算机进入信息时代,对于人工智能的执着探索就从来没有停止过脚步。但直到互联网普及和移动互联网大量在线用户结合,形成海量动态大数据信息的今天,以ChatGPT为代表的人工智能算法应用才算有了诞生的基础。

人工智能的三驾马车:算力、算法、数据,现在已经完全具备。计算机处理器芯片技术的快速发展和迭代,加上互联网分布式算力模式,让算力不再成为人工智能发展的限制。ChatGPT强大功能所依托的基础除了核心的人工智能算法,必不可少的就是海量的数据,数据就是人工智能成长的“粮食”。

马斯克为首的科学家联名呼吁停止ChatGPT-5的研发,让人工智能会威胁人类安全的说法再次受到关注和热议。而意大利个人数据保护局宣布禁止使用ChatGPT,并限制OpenAI处理意大利用户信息的新闻,也从数据安全角度提出了ChatGPT应用可能存在的风险。

那么ChatGPT为代表的人工智能到底会不会对人类造成威胁呢?科幻电影中的超级人工智能最终选择灭绝人类是不是人工智能发展到最高阶段的终极宿命呢?

马斯克呼吁停止ChatGPT-5研发的真实意图是什么?

马斯克是OpenAI的联合创始人之一,但是在2018年离开了OpenAI董事会,在那以后他就一直批评OpenAI,尤其是针对OpenAI与微软的合作关系。马斯克在2月份称:OpenAI最初是作为一个开源的非营利组织成立的,但现在已成为“一家由微软实际控制的闭源利润最大化公司”。

马斯克能够作为OpenAI的联合创始人,说明其是不反对人工智能研究的。马斯克离开OpenAI的最大可能原因,也许是与微软争夺OpenAI控制权失败。

把马斯克呼吁停止OpenAI新版本研发的原因,认为是其“人工智能会对人类产生威胁”观点所致,可能是一种误解。从OpenAI目前在各个领域的技术应用来看,其具备广阔的商业前景,马斯克不是为了人类安全而呼吁停止OpenAI研究,而是为了自己能够掌控类似于OpenAI人工智能领域的技术高地。

出于资本和商业逐利目的发表的言论,与其真实意图往往是不一致的,因为身体总是诚实的。马斯克反对的不是人工智能,他只是反对领先的人工智能没有掌握在自己手中。

ChatGPT人工智能会演化成MOSS或者天网吗?

ChatGPT是基于人工智能算法技术驱动的自然语言处理工具,通过理解和学习人类语言与人类进行对话,随着自我学习进化,可以完成写文章、写代码、写视频脚本、翻译、写论文等任务。

ChatGPT还采用了注重道德水平的训练方式,可以按照预先设计的道德准则,对不怀好意的提问和请求“说不”。如果发现用户给出的文字提示中含有恶意,包括但不限于暴力、歧视、犯罪等意图,都会拒绝提供有效答案。

随着大量数据的训练和算法模型的持续改进,ChatGPT会变得越来越聪明,也越来越像一个“人”。但想要进化成觉醒自我意识的“天网”或者“MOSS”,从当前的理论上来说基本没有可能。

人工智能所体现出来的“道德”或者逻辑思考的“想法”,都是基于程序算法中人为所设置的规则。阿西莫夫科幻电影《我,机器人》中,给人工智能机器人制定了三大法则:1、机器人不得伤害人类,或者目睹人类遭受危险而袖手旁观;2、在不违反第一定律的前提下,机器人必须服从人给予它的命令;3、机器人在不违反第一、第二定律的情况下要尽力保护自己。

但因为三大法则存在矛盾,假如人类伤害机器人,那么机器人就会在第一法则和第三法则之间出现选择矛盾。在这种非正常情况下,机器人的程序常规下会形成死循环:①保护自己,准备反击--②识别出攻击自己的是人类,否决攻击决策--③持续被人类攻击,返回第一步。

因为程序矛盾而产生自我意识,这是科幻电影中的设定。现实中可能性基本为零,计算机底层逻辑指令就是二进制的“0”和“1”,非此即彼的硬逻辑是算法的基础,不可能出现第三种状态。如果人工智能因为矛盾的规则就能产生自我意识,那当下以超级计算机集群为算力基础,应该就已经能制造出具有自我意识的数字生命体了。

然而,并没有!所以,人工智能在逻辑规则发生矛盾的时候,就是程序的死循环,如果做出选择,那也是程序设计中法则的优先级设定导致,并不是产生意识的表现。

ChatGPT人工智能的威胁背后,依然是互相对立的“人”

ChatGPT的进化发展,会不会对人类造成威胁?答案是:会!

但ChatGPT对人类的威胁,不是人工智能产生自我意识的终极物种威胁。ChatGPT只是更加智能化的工具,其威胁是掌握其控制权的人类“群体”对其他群体形成的威胁。

从商业角度而言,ChatGPT接入的领域越多,其潜在的威胁和风险也就越多。如三星就已经发生3起因为员工不当使用ChatGPT而导致半导体机密泄露事件,而意大利禁用ChatGPT也是出于隐私和数据安全缘故。

目前微软办公软件已经接入ChatGPT,更多的日常办公应用软件均陆续准备接入ChatGPT,当ChatGPT无处不在的时候,谁能保证其没有隐秘的后门控制程序?

人工智能威胁的背后,还是控制人工智能的“人”!商业机密泄露和被窃取的危险程度,只是取决于利益是不是足够大。一个被少数人控制的人工智能如果渗透到了工作和生活的方方面面,也基本相当于少数人可以轻易的对大部分人形成无可辩驳的威胁。只要看看大美丽国在总统竞选中发生的媒体社交平台引导选民的事件,就可以知道人工智能如果应用到舆论战场中会产生多么大的影响力。

最后:中国人工智能独立发展之路不可偏废

ChatGPT的成功源于算法和大量数据训练,中国人工智能发展与美国存在不小的差距,但也有自己的优势。庞大的互联网用户群体和应此而生的海量数据,是我们人工智能发展的基础。

希望中国的科技企业能在类ChatGPT人工智能赛道上加大投入,着眼于未来的世界范围内人工智能竞争格局。中国也不缺人才,人工智能算法的应用不能仅仅用在对用户偏好方面的信息内容推送机制方面,也可以与ChatGPT对标,发展出中国自己的类人工智能应用平台。

本文地址:http://fabua.ksxb.net/news/3975.html    海之东岸资讯 http://fabua.ksxb.net/ , 查看更多

特别提示:本信息由相关用户自行提供,真实性未证实,仅供参考。请谨慎采用,风险自负。

 
 
更多>同类最新资讯
0相关评论

文章列表
相关文章
最新动态
推荐图文
最新资讯
点击排行
网站首页  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  粤ICP备2023022329号