#大規模言語モデル
「大規模言語モデル」タグが付いた記事一覧です。このトピックに関連する記事を時系列で閲覧できます。
記事一覧
7 記事
学習の学習:生まれながらの知性
2025年8月13日
この記事では、人工知能の学習メカニズムの本質を探ることで、知性の起源に迫る試みがなされています。著者は、学習を大きく「形而下の学習」(反復的な学習)と「形而上の学習」(少ない試行回数で学習できる、または既存知識の応用による学習)に分類し、その界面に「自然言語」や身体的知覚に基づくフレームワークが存在すると主張します。 具体的には、大規模言語モデル(LLM)を例に、事前学習やファインチューニングに...
クロノスクランブル社会
2025年8月12日
この記事では、生成AIの登場により、人々の時間認識に大きな差異が生じている社会状況を「クロノスクランブル社会」と定義し、その特徴や課題、そして将来への展望を論じています。 従来、時間認識の差異は国境や文化、世代間の違いによる情報格差に起因していましたが、生成AIはこれとは異なる、より複雑で広範な差異を生み出しています。AI研究者間でも、AI技術の現在地や将来性に関する認識は大きく異なっており、そ...
人工学習知能システム:ALIS構想
2025年8月9日
この記事は、人工学習知能システム(ALIS)という新しいAIシステムの構想について提案している。ALISは、既存の大規模言語モデル(LLM)のようなニューラルネットワークベースの教師あり学習(先天的学習)に加え、外部から知識を取り込み利用する後天的学習を組み合わせたシステムである。ALISのコアとなる技術は、再利用可能な知識の抽出、保存、推論時の選択と利用であり、これは単なる技術要素ではなく、先天...
自然言語機械学習
2025年8月8日
従来の機械学習は数値データと数値計算に基づくが、人間は言葉による学習も得意とする。大規模言語モデル(LLM)は、言葉で知識を記述・活用できる自然言語プロセッサであり、自然言語機械学習という新たな分野を切り開いた。この自然言語機械学習は、事前学習済みのLLMのパラメータを固定したまま、ナレッジベースに学習結果を蓄積することで実現する。基本モデルは、教師あり学習による分類問題を例に説明できる。例えば、...
マイクロ仮想知能としてのアテンションメカニズム
2025年8月6日
この記事は、生成AIにおけるアテンションメカニズムの重要性と、それを発展させた独自の概念である「仮想知能」と「明示的アテンションメカニズム」を提案している。 まず、著者はトランスフォーマーの成功をアテンションメカニズムに帰結させ、その概要を説明する。アテンションメカニズムは、自然言語処理において、大量の単語から処理対象の単語に関連性の高い単語を選択的に処理することで、文脈理解の精度を高める仕組み...
仮想知能のオーケストレーション
2025年7月30日
この記事では、仮想マシン技術になぞらえて、単一の人工知能モデル内で複数の仮想的な知能(仮想知能)を協調動作させる「知能オーケストレーション」という概念を提案しています。仮想マシン技術が複数の仮想コンピュータを1台の物理マシン上で動作させるように、知能オーケストレーションは、単一の人工知能モデル内で、異なる役割や機能を持つ複数の仮想知能をプロンプトによって制御し、複雑な知的作業を遂行させます。 従...
リキッドウェア時代の全方位エンジニア
2025年7月28日
この記事では、生成AIによる自動プログラミング技術の進歩によって、ソフトウェア開発が大きく変化し、"リキッドウェア"と呼ばれる新たなソフトウェア形態が登場しつつあると主張している。リキッドウェアとは、ユーザーが生成AIを用いて、ソフトウェアの機能やインターフェースを自由にカスタマイズできるソフトウェアのことである。 まず、著者は生成AIがプログラミングを自動化できるようになった現状を説明する。大...