#大型语言模型
标有“大型语言模型”的文章。按时间顺序浏览关于此主题的相关文章。
文章
7 篇文章
学习的学习:与生俱来的智能
2025年8月13日
本文探讨了人工智能(特别是大型语言模型)的智能涌现机制,通过引入“形而下学习”和“形而上学习”的概念来解释这一现象。“形而下学习”指通过重复迭代学习知识,类似于人类的身体学习;“形而上学习”则指只需少量尝试或直接检索即可掌握的知识,类似于人类利用已有的知识框架快速理解新知识。作者认为,自然语言是连接形而下学习和形而上学习的关键界面,它既可以通过形而下学习习得,又可以作为形而上学习的工具。大型语言模...
时空错乱社会
2025年8月12日
本文探讨了生成式AI的兴起导致的社会现象——“时空错乱社会”。在这个社会中,人们对当前技术、信息和未来的认知存在巨大差异,这种差异超越了国界、文化和世代的界限,甚至存在于AI研究人员内部。这种差异并非单纯的技术差距,而是由于信息获取的不均等、对信息的理解能力不同、以及对未来预测的差异所导致的。 文章指出,这种时间感知差异体现在多个方面:首先,对尖端AI技术、应用技术和系统技术发展趋势的认知存在差...
人工学习智能系统:ALIS构想
2025年8月9日
本文提出了人工学习智能系统(ALIS)的概念,这是一种结合了先天学习(神经网络监督学习)和后天学习的系统。ALIS的核心在于可重用知识的提取、存储、选择和利用。文章详细阐述了ALIS的五个要素:智能处理器(例如大型语言模型LLM或人脑)、知识存储(LLM中的神经网络参数或人脑的长期记忆)、世界(ALIS感知的外部环境)、状态内存(LLM的隐藏状态或人脑的短期记忆)和框架(推理时选择知识的标准以及组...
自然语言机器学习
2025年8月8日
传统的机器学习依赖数值数据,而人类和大型语言模型(LLM)则能够通过语言学习。本文提出了一种新的机器学习方法:自然语言机器学习,它利用预训练的LLM处理自然语言数据进行学习,而LLM的参数在学习过程中保持不变。文章首先描述了一个基本的监督学习模型,该模型用于解决分类问题,例如区分公司总务课和庶务课的职责。在这个模型中,输入语句被输入到LLM中,LLM生成回应,教师系统判断回应的正确性,并将输入语句...
注意力机制作为微虚拟智能
2025年8月6日
本文探讨了注意力机制在生成式AI中的作用,并将其与虚拟智能的概念联系起来。文章首先介绍了注意力机制,即AI在处理自然语言时选择性地关注相关词语的能力,这使得AI能够更准确地理解上下文,即使在长文本中也能避免语义丢失。然后,文章引入了虚拟智能的概念,指AI能够根据任务动态地选择和使用相关知识,而无需人为干预。文章认为,当前生成式AI的局限性在于需要人为地将知识库分割成多个部分,分别用于不同的任务。而...
虚拟智能的编排
2025年7月30日
本文探讨了虚拟智能和智能编排的概念及其应用。虚拟智能是指在实际智能之上实现的虚拟智能,例如人类在扮演不同角色时的思维方式,或对话式AI生成多角色对话。智能编排则是在虚拟智能的基础上,通过提示指令而非系统开发,来实现复杂的组织性任务。这与系统编排(利用多个AI进行系统开发)形成对比。智能编排的优势在于其灵活性和快速迭代能力。通过指令,可以灵活切换多个人工智能的角色和组合,从而易于进行改进和功能添加。...
流体软件时代的“全方位工程师”
2025年7月28日
本文探讨了生成式AI对软件开发模式和工程师角色的深刻影响,并提出了“流体软件”和“全方位工程师”的概念。 文章首先介绍了生成式AI在程序生成方面的能力,指出其可以辅助甚至替代部分程序员的工作,但同时也承认其局限性,例如指令模糊性、知识库更新滞后等。通过人类工程师的指令优化和互联网知识补充,生成式AI的程序生成能力正不断提升,越来越多的软件开发任务可以交由其完成。文章以作者自身经验为例,说明了生成...