找回密码
 立即注册
首页 业界区 安全 读大语言模型10人工智能进化

读大语言模型10人工智能进化

但婆 前天 11:03

1. 人工智能进化

1.1. 2023年,人工智能迎来了一个重大突破的里程碑年份

  • 1.1.1. 大语言模型的能力不断增强,不仅改变了人机交互模式,还开启了机器之间的互动可能
1.2. 20世纪60年代,人工智能研究者追求的目标是通过基于直觉的编程来模拟人类智能
1.3. 既然大脑是人类智能的物质基础,也是解决人工智能难题可行性的唯一明证,为何早期人工智能研究者们没有重视对大脑的研究?

  • 1.3.1. 纽厄尔的回答颇具启发性:他个人对脑科学研究持开放态度,但当时对大脑的认知水平有限,难以为人工智能的发展提供实质性指导
1.4. 在今天,自然界的智慧仍在启发航空工程

  • 1.4.1. 莱特兄弟就是滑翔鸟类的细心观察者
  • 1.4.1.1. 铰链式襟翼才是更优的技术方案
  • 1.4.2. 现代喷气式飞机普遍采用的翼梢小翼,不仅能节省5%的燃料,其造型也与鹰的翼尖惊人地相似
1.5. 大脑皮质的分层结构为深度学习的发展提供了重要启发,而大自然中还蕴藏着更多值得借鉴的智慧
1.6. 算法生物学,致力于研究和解析生物系统中的问题解决机制

  • 1.6.1. 通过漫长进化而形成并最终传承至人类的自然法则与解决方案,正是破解复杂问题的重要参考
2. 学习与编程的对比

2.1. 在传统人工智能研究中,学习并未被视为核心要素
2.2. 20世纪的人工智能研究主要致力于直接编程实现智能,需要为感知、运动和规划等不同功能分别开发程序模块
2.3. 把视觉作为独立目标本身就值得商榷

  • 2.3.1. 视觉的根本作用是辅助生物体与环境进行运动交互
  • 2.3.2. 流向视觉皮质的运动反馈信号竟比输出的视觉信号更为丰富
  • 2.3.3. 这些运动前的反馈信号能预测自身行为产生的视觉变化,从而让有限的信息通道专注于处理未预期的视觉输入
  • 2.3.4. 大自然的设计自有其精妙之处,无须让这些复杂的技术细节成为我们的困扰
2.4. 学习系统需要强大的计算能力和海量数据作为支撑
2.5. 现代电视本质上是一台能与其他设备进行流媒体通信的计算机
2.6. 汽车则变成一台装配轮子的智能终端,不久的将来还将实现车联网通信
2.7. 学习新知识的过程实际上是在改变我们的生物神经系统
2.8. 大脑是由多个相互配合的算法系统组成的,而这些子系统都建立在可以互相适应的神经元基础之上,这种特性大大降低了系统整合的难度
2.9. 语言本身就是符号处理的典范,而数字计算机恰好在处理符号和执行逻辑运算方面表现出色
2.10. 程序员必须预设的世界状态组合呈指数级增长
2.11. 我们往往低估了“看”和“伸手”这类看似简单动作的复杂性

  • 2.11.1. 对人类而言,识别物体并抓取它是轻而易举的事,因为这些动作已成为本能,我们甚至意识不到其中涉及的大量潜意识处理过程
  • 2.11.2. 我们通常不知道自己是如何做出决定的,只是事后才用似是而非的理由来解释
  • 2.11.3. 从艺术创作到数学发现,这种潜意识处理都是创造力的重要源泉
2.12. 数学家那种严密的逻辑推理能力,其实是经过长期训练才得以形成的

  • 2.12.1. 在面对未知情况时,人类更倾向于通过类比已知经验,而非运用严格的逻辑来做出判断
2.13. 程序性学习正是人类掌握运动技能、在特定领域成为专家,以及获得其他技能的关键机制

  • 2.13.1. 我们大脑中的程序性学习采用了与AlphaGo相同的时间差分学习算法,其中多巴胺神经元负责表示奖励预测误差
  • 2.13.2. 这种学习机制也是人类创造力的重要来源之一
3. 人工智能历史中的三个要点

3.1. 早期发展优势:符号处理在AI早期备受青睐,主要因为数字计算机在处理符号和执行逻辑运算方面效率极高

  • 3.1.1. 语言处理正是符号处理方法的典型应用场景
3.2. 替代方法:随着技术的发展,从大量实例中学习的方法逐渐取代了传统的符号处理

  • 3.2.1. 这种方法对数据规模和计算资源要求很高,在人工智能发展早期难以实现
  • 3.2.2. 2012年的重大转变:一方面,计算资源和数据获取成本大幅降低;另一方面,传统编程方式的开发成本却不断攀升
  • 3.2.2.1. 这种此消彼长的态势,最终推动机器学习成为AI发展的主流方向
3.3. 传统人工智能的关注点:传统人工智能强调逻辑推理,但要学会模仿逻辑步骤需要大量训练

  • 3.3.1. 强化学习的作用:像TD-Gammon和AlphaGo这样的系统所展现的创造力,不仅来自深度学习,还来自强化学习
4. 下一代技术

4.1. 人类有在各种环境中保持稳定和生存的能力,而语言智能只是其中的一小部分
4.2. 就像语言在大脑中的作用一样,人工智能的长远愿景是将大语言模型整合到更广泛的系统中
4.3. 大脑经过数百万年的进化,特别擅长感知和运动控制,因为其对生存至关重要
4.4. 大语言模型也需要依赖人类才能生存,毕竟它们在现实世界中无法独立存在
4.5. 尽管非人类动物未达到人类的通用智能水平,但它们都已在各自的生态位中实现了有效的自主性

  • 4.5.1. 深度学习虽然从大脑皮质获得灵感,但要实现真正的自主生存,还需要借鉴更多脑区的功能机制
  • 4.5.2. 自然界通过漫长的进化,在变化多端的环境中不断打磨出一套套精妙的算法,这些算法或许正是开发人工通用自主性的关键所在
4.6. 自然界通过漫长的进化,在变化多端的环境中不断打磨出一套套精妙的算法,这些算法或许正是开发人工通用自主性的关键所在
4.7. 大自然向我们展示了如何通过具身化的大脑来解决复杂的计算问题,通过研究多样化的神经架构并提炼其中的普遍原理,我们可以在通往人工智能的道路上学到很多东西
5. 童年期

5.1. 与小马出生后即能行走不同,人类是典型的晚熟物种

  • 5.1.1. 发育期的延长让人类大脑得以缓慢发展,在语言学习阶段保持较强的可塑性
5.2. 初级感觉皮质较早成熟,而前额叶皮质要到成年期才最终发育完善
5.3. 尽管批量训练在特定任务中更为高效,但要实现真正的人工通用自主性和与人类价值观的深度对齐,可能需要更长的“童年期”​

  • 5.3.1. 通过在早期训练中融入强化学习,人工智能系统可以像儿童一样逐步建立对好坏、安危的认知,并在后期形成稳定的价值取向
6. 大语言模型

6.1. 需要计划

  • 6.1.1. 要实现真正的人工通用自主性,建立目标导向和内在动机至关重要
  • 6.1.2. 维持生存需要生命体与环境保持动态平衡
  • 6.1.3. 当前的大语言模型要想持续进步,离不开精心筛选的训练数据和开发人员的不懈优化
  • 6.1.4. 自动驾驶技术的发展历程清晰地展示了人工智能在应对真实世界时面临的挑战,特别是如何应对不可预测的环境变化
6.2. 需要实现突破

  • 6.2.1. 相比掌握语言,学习控制像人类这样具有高度灵活性和适应性的身体是一项更具挑战性的任务
  • 6.2.2. 人体拥有众多关节,每个动作往往需要数百块肌肉协同工作,这使得动作协调成为一个极其复杂的控制难题
  • 6.2.3. 传统的控制方法采用中央集中式管理,而自然界则通过分布式控制方式,实现了多自由度身体的流畅协调
  • 6.2.4. 走路和说话有着相似之处:两者都需要产生由目标引导的、连贯流畅的动作序列
  • 6.2.5. 将感知输入与语言关联起来,有助于加强与控制身体的其他脑区系统之间的信息连接
  • 6.2.6. 大语言模型在未来也需要发展出与物理世界交互的能力
  • 6.2.7. 具身性的三个要点
  • 6.2.7.1. 身体的协调复杂性:要打造一个能像人体那样灵活适应环境的机械躯体,是一项极富挑战性的工程
  • 6.2.7.2. 任务的协同推进:一个重要突破在于将大语言模型整合进机器人控制系统
  • 6.2.7.3. 感知运动系统与语言的深度融合:要让学习过程更加直接有效,我们需要将更丰富的感知信息与语言系统建立起紧密联系
  • 6.2.8. 1948年是信息科学的重要里程碑
  • 6.2.8.1. 诺伯特·维纳出版了开创性著作《控制论》
  1. >  6.2.8.1.1. 首次提出“控制论”​(cybernetics)概念,该词根后来衍生出我们今天熟知的“网络”​(cyber)及相关词汇,如“网络犯罪”​(cybercrime)、​“网吧”​(cybercafé)等
复制代码

  • 6.2.8.2. 香农创立了现代信息理论,为通信领域带来革命性突破
  • 6.2.8.3. 这两大理论为人类后来实现登月和发明互联网提供了关键理论支撑
  • 6.2.8.4. 时至今日,在研究大语言模型的类脑功能和内部运作机制时,控制论和信息论仍然发挥着不可或缺的指导作用
6.3. 需要长期记忆能力

  • 6.3.1. 构建新一代人工智能系统面临的一个关键挑战,是如何管理由深度学习网络组成的复杂异构系统的记忆机制
  • 6.3.2. 要让大语言模型真正成为个人助理和导师,它必须具备记住与用户历史互动的能力
  • 6.3.3. 用新数据持续训练模型往往会削弱它对原有知识的掌握
  • 6.3.4. 下一代大语言模型应当开发类似人类海马的功能模块,使其能够实现持续学习,从而在行为模式上更加接近人类
  • 6.3.5. 海马是大脑中的关键结构,它能在不破坏已有记忆的前提下,帮助大脑皮质建立起跨时间的记忆连接,并不断更新神经网络
  • 6.3.6. 为了避免记忆丢失和相互干扰,大脑进化出了多种保护机制,其中最重要的是对新信息进行筛选存储
  • 6.3.7. 记忆的巩固过程主要在睡眠中完成
  • 6.3.7.1. 睡眠时,大脑皮质会产生一种有规律的电活动模式,特别是一种叫“睡眠纺锤波”的短暂振荡活动
  • 6.3.7.2. 这种活动每晚会重复数千次,对记忆的巩固起着重要作用
  • 6.3.7.3. 当海马在睡眠中重放白天的经历时,就会触发这些纺锤波
  • 6.3.7.4. 通过这种遍布大脑皮质的同步波动,日常经历得以精炼并逐步融入长期记忆系统
7. 神经调节

7.1. 大脑协调多个神经网络同时运作的另一个重要机制是神经调节
7.2. 神经调节系统由一系列复杂的神经网络构成,它们通过释放特殊的化学物质—神经调质来调控神经元和神经回路的活动
7.3. 神经递质主要产生快速、直接的电生理反应,而神经调质的作用则相对缓慢,但影响范围更广,能够引发大脑功能的整体性变化
7.4. 多巴胺是一种典型的神经调质,在基底神经节的强化学习系统中发挥着关键作用,主要通过激励与奖励相关的行为来调控学习

  • 7.4.1. 由于多巴胺在动机系统中的重要地位,成瘾性药物往往会通过干扰多巴胺的活动来劫持我们的奖励系统
  • 7.4.2. 我们无法直接感知技能学习的神经过程,但那些能够促进多巴胺释放的药物却能带来明显的愉悦感
7.5. 大脑中还存在着数十个神经调节系统

  • 7.5.1. 这些系统共同调控着我们的警觉性、注意力、情绪状态、社交行为、食欲,以及应激反应等多种认知功能
  • 7.5.2. 通过长期进化,这些系统使我们能够更好地应对日常突发事件,甚至是威胁生命的危急时刻
  • 7.5.3. 这些神经调节系统最显著的特点,是能够根据紧急情况灵活调整认知优先级
  • 7.5.3.1. 这种动态调节机制的原理,对开发具有自主性的大语言模型具有重要的启发意义
8. 工作记忆

8.1. 在对话开始时,大语言模型能够根据特定领域持续生成符合语法的内容
8.2. 从整体来看,模型的活动轨迹会在提示词所界定的高维空间中按特定路径移动
8.3. 人类对话却显得更加灵活

  • 8.3.1. 我们不仅能在长时间内保持对话的连续性,即使话题临时跳转,也能自如地回到原来的话题
8.4. 大脑拥有一套在不同时间尺度上保持连续性的动态机制

  • 8.4.1. 以人类的工作记忆为例,它是通过神经元内部以及神经元之间的电生理和生化活动来维持的
  • 8.4.2. 在强化学习领域,通过“资格迹”​(eligibility trace)来维持连续性
  • 8.4.2.1. "资格迹”实际上是一个基于预测误差来计算权重变化的衰减平均值
8.5. 大语言模型在对话过程中会表现出一种类似“学习”的能力

  • 8.5.1. 随着对话的深入,模型的注意力机制会将信息处理重新导向不同的网络分支
  • 8.5.2. “思维链”提示法就是一个很好的例子,它通过引导模型按步骤思考,实现了更好的问题解决能力
  • 8.5.2.1. 这种由多头注意力机制主导的即时转向能力,在实际应用中也被证明非常有效
9. 大脑记忆系统的5个关键特征

9.1. 对话的高维空间和连续性

  • 9.1.1. 对话内容可以被视为在高维空间中形成的轨迹,既要保持连贯性,又要符合语法规范
  • 9.1.2. 即便话题出现跳转或被打断,人们也能自然地重回主线,维持对话的流畅度
9.2. 工作记忆与生物活动

  • 9.2.1. 人类的工作记忆依靠神经元网络中的电化学活动来维持
  • 9.2.2. 这一过程涉及不同时间尺度的神经活动,在强化学习理论中被称为“资格迹”现象
  • 9.2.3. 突触内部存在作用时间更长的生化过程,这些机制对记忆的形成和维持起着关键作用
9.3. 构建人工智能记忆系统的难点

  • 9.3.1. 开发具备人类记忆管理特征的人工智能系统仍面临巨大挑战
  • 9.3.2. 现有的语言模型类似于“短期失忆患者”​,无法有效保存和利用过往对话的信息
  • 9.3.3. 未来的语言模型研发正致力于模拟人类海马的功能,以实现持续学习能力,使其表现更接近人类的认知模式
9.4. 海马与记忆巩固机制

  • 9.4.1. 对新经验进行选择性储存
  • 9.4.2. 通过睡眠中的纺锤波活动来整合记忆
9.5. 神经调节系统的作用机制

  • 9.5.1. 大脑通过特定的化学物质对神经元活动进行调控
  • 9.5.2. 这些神经调节物质与普通神经递质相比,具有作用缓慢但影响范围广的特点,能够引发大脑功能的全局性变化

来源:豆瓜网用户自行投稿发布,如果侵权,请联系站长删除

相关推荐

您需要登录后才可以回帖 登录 | 立即注册