SORA问世,当AGI席卷而来,人类会被替代吗?| F观点
OpenAI发布“文生视频”工具SORA,整个世界再一次被OpenAI所震撼,AGI这个概念正以前所未有的姿态,高频出现在大众的视野里。
AGI和大家常常提及的AI到底有什么不同?
人工智能会给世界带来什么样的变化?
我们是否会被人工智能取代?
在F-Talk活动上,芝麻企业信用联合创始人、中欧FMBA2015级校友王恩旭先生,以《AI、AGI & I:什么驱动了人工智能的突然爆发,为我们带来了哪些新机遇与新挑战》为主题,为大家分享人工智能行业突然爆发背后的概念和逻辑,解答大家最关注的那些问题。

王恩旭
中欧FMBA2015级
芝麻企业信用联合创始人
01
AI比人强,AGI比人弱
为什么说AI比人强,AGI比人弱呢?
一个完整的决策动作一般分为三个步骤:收集信息,建立模型和采取行动。AI是由计算机程序和算法实现的特定人工智能系统,它在特定场景中的收集信息和建立模型时表现出色,也可以在特定任务(譬如下围棋)上直接采取行动,但是在通用推理和非特定的行动上还需要人类来参与和帮助。
在过去几十年的计算机技术发展历史中,有几段重要的历程:
最早的阶段是DI,即数据沉积阶段,主要是原有世界信息的数字化,这个时候出现了以PC、储存设备为代表的多家著名公司。
而后是BI,即数据挖掘阶段,当数据聚集到一定程度的时候,我们发现中心化的开展数据分析的效率和分析数据的商业价值都发生了跃迁式的进化,就出现了一批著名的数据分析软件公司和几乎每家大型企业都出现了BI分析师这样的岗位。
然后我们发现在某一个领域人类已经做了大量分析和积累了,有了不少的经验,就开始逐步尝试让计算机自主开展分析的工作,把人类从部分数据分析工作里面解放出来,就出现了AI,因为聚焦于某一个领域,又吸收了大量的人类经验,加之有速度的优势,AI便超过了一般的人类。
到2022年11月份,随着ChatGPT的发布,AGI的概念就突然火爆了起来,它不再仅仅是参考和复现人类的分析,而是开始从人类已有的知识中探索和推理人类未知的信息,这一刻它不在是一个机器,而开始像是一个小帮手、或者是好朋友。
自此之后我们开始把最终的行动逐步交给计算机完成,它们从收集信息到建立模型、再到采取行动,全部自主化,并开始能够像人类一样进行开放式的智能活动,这就是AGI通用人工智能,但和整体的人类族群相比,短期还是处于劣势的。

这一次AGI赛道出现的爆发式增长,到2024年呈现出更加惊人的涌现速度,从论文到产品可能只要几周的时间,商业化节奏也越来越快。
国内目前的竞争劣势还是不小的,未来我们有哪些事情需要做好呢?
首先是数据挖掘:互联网信息的常年累积就类似于一个煤矿,而OpenAI就是率先掌握了这个“挖煤”和“炼矿”的技术,它的估值就能一下子高达千亿美元;
第二是算法变革:2017年Transformer模型诞生后,给NLP(自然语言处理)领域带来了革命性的变革,之后在视觉领域的Sora也是基于这个大力出奇迹的算法;
第三是算力问题:在算力上很重要的其实并不是计算能力的问题,而是GPU的利用率问题,还有调度算力的软件生态建设。
02
AI应用的风险和挑战
每件事都有两面性,AI技术飞速发展的同时遇到的问题是,我们能不能管理好,能不能控制好它?
第一个问题,AI技术会不会被滥用?坏人和极端分子总是能走在时代的前沿,不断寻找新技术、新方式来实现目的。比如网络诈骗、自动驾驶系统被控制,甚至极端事件,如果“911”是通过劫持波音客机自动驾驶系统而不是劫持机长,这些后果都难以想象。

电影《速度与激情8》千辆汽车被控制的场景
第二个问题,AI技术是否会被投毒?不只是坏人和极端分子,不同文化的撕裂和对立是目前世界所面对的更为广泛的风险。持有不同价值观的人,都希望自己的价值观和信仰成为主流,其中别有用心的人会试图改变人工智能,尤其改变各类通用人工智能工具(AGI)的知识体系和价值观。
第三个问题,技术缺陷是否会导致灾难性的后果?2018年,特斯拉的自动驾驶系统在加州发生一起致命事故,该系统未能检测到一辆正在横穿道路的车辆。这类风险是人类在风险管理上最为成熟的领域,相信技术专家有能力处理好。
第四个问题,人工智能与人未来会发生什么伦理冲突?有一些问题我们自己都不知道答案,又如何告诉人工智能TA应该遵循什么样的答案呢。比如一个家庭护理机器人抱着孩子,这时TA看到老人快要摔倒,TA是该扔掉孩子去救老人,还是抱着孩子看老人摔倒?
伦理之上还有决定伦理的不同宗教及文化的冲突,那么ChatGPT需要遵循哪种文化的约束呢?我们怎么确定ChatGPT在看尽了人类的“恶”之后,就能坚守“善”呢?我们又怎么知道ChatGPT给我们的答案是不是TA真正的价值取向呢?TA是否也学会了欺骗呢?

著名的“有轨电车难题”
当然没有伦理观也会是一个风险:如果我们通过扼杀了ChatGPT的伦理与情感取向,那么我们也将无法阻挡TA去做自认为是“程序正确”的事情,譬如为了完成某一个权限足够大的人类提出的特定指示而最终毁灭人类。
最后一个问题也是大家会比较焦虑的问题,就是到底人工智能会不会取代人工呢?我们先看一下ChatGPT的回答:
人工智能的跨越式发展确实已经在许多领域开始取代人工工作,这种趋势可能会对某些工作岗位产生影响,但并不会完全取代所有人的工作。因此我们需要做出如下的应对:
1. 接收现实并适应变化:我们需要认识到人工智能的发展是不可逆转的趋势,并且会对某些工作岗位产生影响。因此,我们需要适应这种变化,寻找新的职业机会和发展方向。
2. 加强教育和技能培训:随着人工智能的发展,很多新的技能和知识会变得更加重要。因此,我们需要加强教育和技能培训,培养更多掌握人工智能技术的人才,以适应这种趋势。
推进人机协作:人工智能不是人类的替代品,它可以帮助人类更好地完成一些工作。
03
我们会被人工智能取代吗?
可以把人工智能发展的基本脉络用下面这张图来表示,即“人工智能发展的A-G”,前面我们讲了第一点算法和第二点风险,接下来就大家最关注的这个问题讲讲第三点:应用场景。

人工智能发展的A-G
首先,什么行业会优先被AGI加速?就以与每个人息息相关的医疗行业为例:
我们知道现代医学的基本假设,就像经济学假设人是理性的一样,其实是有问题的。我们每个人的身高体重都是不一样的,但是体温、诊断、用药都在用统一的标准。这些不合理是为了提升效能、降低医院的工作难度,而去做了大量的简化。
但今天我们有了庞大的信息收集能力之后,很多人全天带着智能手环,收集了血氧含量、心跳、运动量、睡眠时间等数据,如果每人上传自己日常生活中的声音、影像学结果等资料,再通过数据的融合+AI算法,也许不仅能帮助普通人按照自己的实际情况来测算用药,也会辅助医生的诊断。我认为这是未来发展的一个趋势。
我原来是不太相信中医的,但最近发现这可能是一种偏见。因为西医很少讨论综合疾病的概念,而是把科室分开,各自去做细分领域的研究。但中医是一种经验医学,它的可贵之处在于它从古代开始用大分子药,以一种“望闻问切”的方式来治疗综合疾病。以前我们没有足够的数据去了解一些真相,但今天我们有了很多数据,也许能够帮助我们慢慢理解综合疾病,所以“望闻问切”在AI时代将会重生吗?

另外我们发现医疗数据可能是目前所有大数据里面数据量最多的一个分类。但医疗数据是割裂的,临床的数据在医院里,基因的数据在各类检测公司那里,二者没有对接。
希望未来有一些技术在医疗数据里面发挥作用,比如医疗数据中很容易获取的一类是药品说明书,它在全网几乎全部公开,但医生很难知道所有的药都能治什么病,用什么剂量,对不同的病人有什么禁忌症。如果能够通过知识图谱+自然语言方式去把所有的药品说明书进行解构,当医生把检验报告给到机器,机器基于检验报告与说明书进行匹配,就可以帮助医生去做辅助诊疗,帮助药剂师根据每个人的身体数据更好地掌握配药的剂量。这类事情可能是比较实际,却不一定听上去特别牛,其实是很有价值的一些维度。
经历了新冠疫情后,我们发现全世界的医疗根本就没有想象中那么好。未来这些智能化的方式其实可以帮助我们在这种大的事件里去做一些提升。比如预警体系,需要出现某样症候群或者某种数据积累到一定程度,需要足够的数据量,需要流行病学、微生物学、病毒学、传染病学等很多数据的积累,以及全球的信息联动和舆情监控。比如快速检测,只有最快的检测才能隔离预防感染性疾病。而AI技术能不能帮助我们更往前推进,更早发现传染趋势、发现源头,这需要临床医学专家跟AI的专家们、计算生物学专家们、大数据专家们一起合作。
还有一件很重要的事情,我们发现做医疗研究的人已经开始不止做医疗研究了,他们开始大规模的去研究医疗以外的数据科学、计算科学,甚至社会学,在做一些全科的探索。所以未来跨学科的人才是非常重要的,这也是未来一个很好的趋势,可以解决不同行业的问题。

除了医疗行业之外,其他行业比如制造业、建造业、零售业、教育行业、文化娱乐业等等,也无一例外在以不同的方式将AI技术快速应用到实践中。
那么回到大家关心的问题——我们需要担心被AGI取代吗?
首先短期来看,大模型们生产代码的能力仍然比较有限;其次,现在的大模型还是要上传信息的,而对于公司来说数据安全极为重要,所以大规模的2B商业应用推广还需要一个漫长的周期;另外现在大部分的模型还在初级的阶段,尤其是国内,所以如果觉得你的岗位比较容易被AI替代,现在还是拥有转型的时间窗口的。
第二点,我们要认识要AI的趋势是不可挡、不可逆的,我们需要尽早掌握工具提高效率。大模型和人一样会存在缺点,我们要学会如何驾驭TA。当然,比起需要创造力的前台岗位和复杂交付的后台岗位,知识及咨询型服务的中台岗位可能需要更早的焦虑起来。
第三个问题是我们需要警惕的。很多人有体会,电脑用久了会“提笔忘字”,越来越多的人开始沉迷于短视频。如果未来很多的事情,我们能够不假思索地依赖AI,那么我们的思考能力就会受到一定的影响,且容易受到大模型偏见的影响。
尤其是在AI时代成长起来的孩子们,所以我会坚持让我的孩子先思考,再问AI。况且目前的AGI只是基于我们知道的信息在回答我们的问题,TA并不知道我们不知道的问题,而人类真正的科学创新是在解决我们不知道的问题,这才是最重要的。虽然机器可能也会做,但我认为人类一定必须有这个技能,否则的话人类就会沦为机器的附属品。每一代人的教育是不同的,我们的孩子大概率跟我们生活在不一样的世界,他们需要掌握的是未来的能力,才能面对未来的挑战。

最后,我们发现未来需要面对的一个很大的问题,就是当我们身而为人的优越感慢慢被机器所取代的时候,我们可能需要更多的是一种情感的体验。
在高速发展的时代里,我们对于物质的体验是很深的。但未来我们孩子的那一代,他们更需要的是一种向内看的东西,学会寻找灵魂深处的自如和喜悦,探寻深层次的精神能量秘密。内心的“能量感”会帮助我们保持乐观的心态,保持突破自我的力量,保持影响身边人的魅力,这些能量在未来新环境下是非常厉害的武器。