跳到内容

#大型语言模型

标有“大型语言模型”的文章。按时间顺序浏览关于此主题的相关文章。

6
文章
8
总使用次数
按时间顺序
最新优先

学习如何学习:与生俱来的智能

2025年8月13日

本文探讨了智能的涌现机制,特别是通过“学习如何学习”的倾向,认为人工智能和人类大脑都拥有这种与生俱来的能力,并将其归因于一种“天生的框架构建者”(natural born frameworker)机制。文章区分了身体学习和语言学习,并进一步将学习过程划分为“形而下学习”(通过重复记忆概念,如观察物体或身体运动)和“形而上学习”(只需较少重复即可记住,或能当场查阅利用,利用预先学习的概念进行类比和组...

阅读更多
标签

时序扰动社会

2025年8月12日

本文探讨了生成式人工智能(AI)的出现如何导致一种名为“时序扰动社会”(Chronoscramble Society)的新社会现实。这种社会的核心特征是人们在时间感知上存在显著且不断扩大的差距。过去,时间感知上的差异主要源于经济差距、文化差异和代际差异,且容易通过信息交流和技术普及来弥合。然而,生成式AI,特别是大型语言模型的出现,打破了这些界限,导致即使是AI领域的专家之间,对技术现状和未来前景...

阅读更多
标签

人工学习智能系统:ALIS 构想

2025年8月9日

本文提出并阐述了人工学习智能系统(Artificial Learning Intelligence System: ALIS)的概念、原理及设计开发方法。ALIS的核心在于整合先验学习(主要指当前基于神经网络的监督学习,如大型语言模型LLM)与一种独立于先验学习的后天学习过程,以实现全面的推理能力。与仅依赖神经网络参数存储知识的先验学习不同,ALIS的后天学习过程将知识存储在神经网络外部,并在推理...

阅读更多
标签

自然语言机器学习

2025年8月8日

文章探讨了一种名为“自然语言机器学习”的新型机器学习范式,它利用大型语言模型(LLM)处理自然语言数据,与传统的基于数值数据的机器学习形成对比。传统的机器学习依赖于数值计算和参数调整,而自然语言机器学习则利用LLM强大的自然语言理解和生成能力,将知识存储在自然语言描述的知识库中,并通过自然语言交互进行学习。 文章首先阐述了自然语言机器学习的基本模型,以监督学习中的分类问题为例。在该模型中,预训练...

阅读更多
标签

作为微型虚拟智能的注意力机制

2025年8月6日

文章探讨了 Transformer 模型的核心——注意力机制,并将其与“虚拟智能”和“微型虚拟智能”的概念联系起来,提出了一种实现高级智能的新视角。注意力机制的核心在于其能够动态地识别并关注文本序列中的相关部分,从而有效地处理长距离依赖关系和指代不明的问题。它通过学习在处理一个词语时,应该“关注”句子中哪些先前词语,从而过滤掉不必要的词语,保持解释密度,无论文本长度如何。 文章随后引入了“虚拟智...

阅读更多
标签

液态软件时代的“全能型工程师”

2025年7月28日

文章探讨了生成式AI在软件开发领域的革命性影响,预示着“液态软件”和“全方位工程师”时代的到来。首先,文章指出生成式AI,特别是基于大型语言模型的对话式AI,能够理解并执行编程任务,类似于人类程序员将需求“翻译”成代码。AI的编程能力结合了测试驱动的迭代优化,大大提高了程序生成的效率,尽管目前仍受限于指令的精确性和AI自身能力。随着AI能力的提升和人类指令方法的改进,AI自动生成程序的范围正在扩大...

阅读更多
标签