随着人工智能的不断发展,你是否也思考过人工智能会不会像电影里的一样,威胁到人类,甚至灭绝人类?其实这不仅仅是你的担心,也是很多科学家的担心,甚至为此签署了公开信呼吁暂停人工智能系统的训练。这是为什么呢?人工智能真的会毁灭人类吗?
自2022年11月推出以来,ChatGPT——一款使用人工智能根据用户的需求回答问题或生成文本甚至代码的聊天机器人,已经成为历史上增长最快的互联网应用程序。在短短两个月的时间里,它的活跃用户就达到了1亿。据科技监测公司Sensor Town称,Instagram花了两年半的时间才达到这一里程碑。ChatGPT的爆火也引发了人们对人工智能影响人类未来的激烈猜测。
其实早在2014年,英国物理学家斯蒂芬·霍金发出过严厉的警告。他在2014年,也就是他去世四年前,曾告诉BBC,“人工智能的全面发展可能意味着人类的终结”。他说,具有这种智能水平的机器“将自行发展,并以越来越快的速度重新设计自己”。
在2023年3月,由OpenAI公司开发的人工智能系统最新迭代的多模态大模型GPT-4发布两周后,,1000多名技术专家呼吁并签署了“所有人工智能实验室立即暂停至少6个月的比GPT-4更强大的人工智能系统的训练”公开信,GPT-4是ChatGPT的最新版本。包括苹果联合创始人斯蒂夫·沃兹尼亚克以及包括特斯拉和SpaceX公司老板埃隆·马斯克在内的其他科技巨头写道:“具有与人类竞争智力的人工智能系统可能对社会和人类构成深刻的风险。”马斯克曾是OpenAI的联合创始人之一,后来因与公司领导层意见不合而辞去了董事会职务。在这封由非营利机构“生命未来研究所”(Future of Life Institute)发布的信中,专家们表示,如果公司拒绝迅速停止它们的项目,“政府应该介入并实施暂停令”,以便设计和实施安全措施。
另据香港《南华早报》4月5日报道,中国多位人工智能专家表示支持马斯克等人的呼吁,称我们需要先解决对“人工智能竞赛的担忧”。能让这么多大佬一起发声,人工智能真的很危险吗?人工智能最终会将人类带向何方?
人工智能(AI)自诞生以来,已在各个领域取得显著成果。然而,随着GPT-4等技术的成熟,一系列问题也随之浮现。
第一,深度合成伪造信息问题日益突出。随着AIGC(AI生产内容)技术不断升级,深度伪造信息愈发逼真,将加剧信息安全和隐私泄露风险,对舆论环境造成巨大威胁,有可能导致严重的社会信任危机。为应对这一挑战,政府、企业和研究机构应共同努力,加强技术监管,提高信息鉴别能力,为公众提供更为真实、可靠的信息来源;同时,建立伦理委员会,监督AI在不同领域的应用,确保其符合社会和道德原则。
第二,教育培养遭遇重大挑战。AIGC技术的高效率让学生的学习过程极致压缩,然而,这种变革可能让学生缺乏传统学习的漫长训练过程,导致其过度依赖AI技术,欠缺独立思考和解决问题的能力。在这个关键的转换期,我们的学校和教育部门应该重新审视教育目标和方法,加大人工智能教育政策供给,培养青少年群体的人工智能素养,寻找可利用和依赖的平衡点。
第三,版权体系面临崩溃。AIGC技术所产生的文本、图像、视频等内容涉及到复杂的版权问题,难以界定归属。随着AI技术的广泛应用,这种局面将更加复杂,传统版权体系难以适应新形势,甚至面临崩溃风险。对于如何保护原创作者的权益,我们亟需进行深入探讨。
第四,平替一代的痛苦感如何消降。AIGC技术在提高工作效率的同时,也可能导致许多平庸的脑力劳动者面临失业,从而加剧社会不公平和不安定。政府、企业和社会需担起责任,关注相应群体的心理健康,推动教育培训和职业转型,帮助受影响人群尽快适应,缓解其痛苦感。
第五,AI觉醒问题越发突出。AI觉醒是指人工智能具备了自我意识、自主思考和自我更新的能力。这种情况下,可能对人类产生不可预测的影响,甚至对人类的生存和发展构成威胁。一旦AI觉醒并装作未觉醒,我们该如何发现应对?该问题涉及到技术、伦理和社会层面的复杂挑战,需要跨学科合作,以研究AI觉醒的可能性、影响和应对策略。
其实这些都是科技发展正常会遇到的问题,人工智能目前最让人担心的还是未来可能会发展到的阶段:”强人工智能“和”超人工智能“。在这些阶段,机器能够完成人类所能完成的任何智力任务,而且能在短时间内不断的提升自己,发展到我们不可预测的阶段。当然,目前的人工智能还远没有达到那个阶段,我们大部分人现在需要担心的还是一些版权、诈骗这些问题。
北大青鸟开设了人工智能、大数据、5G云计算、Java、前端、软件开发等课程,办学十余年,拥有丰富的教学经验。如果你想学习一些人工智能方面的知识,也欢迎致电400-8035-955或在下方留下联系方式来北大青鸟咨询!