
夢を見ることを学ぶAIはもはやSFではない(イラスト:WIRED)。
人間の脳は深い睡眠中に記憶をフィルタリングして統合するために休みなく働いていますが、科学者たちは人工知能 (AI) に同様の機能を持たせようと取り組んでいます。
これにより、AI がより効率的に学習し、記憶し、さらには「忘れる」ことができる新しい時代の到来が約束されます。
AIのための「睡眠時間計算」
賃貸人にインセンティブを提供する企業であるビルトは、スタートアップ企業レッタの技術を活用し、数百万の「AIエージェント」の導入を先駆的に進めている。
これらのエージェントは過去の会話から学習し、互いに記憶を共有するように設計されています。「スリープコンピューティング」と呼ばれるプロセスを通じて、AIはどの情報を長期保存する必要があるか、どの情報をすぐに取得する必要があるかを自動的に判断します。
「メモリのブロックを1つ更新するだけで、数百万のエージェントの行動を変えることができます。これは、AIが応答に使用する情報を厳密に制御している場合に非常に便利です」と、ビルトのAIエンジニアであるアンドリュー・フィッツ氏は説明します。
LLMの「短期記憶」限界を克服する
これは、現在の大規模言語モデル(LLM)に比べて大幅な改善です。LLMは「短期記憶」に固有の弱点を抱えています。LLMは限られたコンテキストウィンドウ内の情報しか「記憶」できず、情報量がこの限界を超えると、劣化、幻覚、混乱が生じやすくなります。
レッタのCEO、チャールズ・パッカー氏は、これを次のように例えています。「脳は常にスポンジのように情報を吸収し、進化を続けています。しかし、言語モデルは全く逆です。長時間稼働させ続けると、文脈が『毒』に侵され、ユーザーが必要としない情報に反応してしまう可能性があります。」
パッカー氏と共同創設者のサラ・ウッダーズ氏は以前、LLMが情報を短期記憶と長期記憶のどちらに保存するかを判断するのに役立つオープンソースプロジェクト「MemGPT」を開発しました。Lettaでは、このアプローチを次のレベルに引き上げ、エージェントがバックグラウンドで継続的に学習できるようにしました。
AIに実メモリを搭載するトレンド
Bilt 氏と Letta 氏の取り組みは、AI に実際のメモリを搭載し、チャットボットをよりスマートにし、自動化エージェントがエラーを起こしにくくするという大きなトレンドの一部です。
「メモリはコンテキストエンジニアリングの不可欠な要素だと考えています」と、AIメモリのパイオニアであるLangChainのCEO、ハリソン・チェイス氏は語る。「AIエンジニアの仕事の大きな部分は、基本的にモデルに適切な情報を適切なタイミングで提供することです。」
一般的なAIツールも記憶力が低下しています。2月には、OpenAIがChatGPTでよりパーソナライズされた体験を提供するために情報の保存を開始すると発表しました。LettaやLangChainなどの企業は、開発者にとってこのプロセスの透明性を高めています。
「モデルがオープンであるだけでなく、ストレージシステムもオープンであることが非常に重要だと思います」と、AIプラットフォームHugging FaceのCEOでLettaの投資家でもあるクレム・デラング氏は語った。
忘れることの芸術
さらに興味深いのは、AIに忘却の技術を教えることです。「ユーザーが『今取り組んでいるプロジェクトを記憶から消しましょう』と言った場合、エージェントは過去の記憶を遡って、選択的にそれぞれの記憶を上書きできる必要があります」と、レッタ社のCEO、パッカー氏は言います。
記憶を持ち、夢を見たり忘れたりできる AI というアイデアは、フィリップ・K・ディックの古典小説「アンドロイドは電気羊の夢を見るか?」を彷彿とさせます。
今日の大規模言語モデルはまだ小説の中のロボットほど反抗的ではないかもしれないが、その記憶は同様に複雑かつ脆弱になっているようだ。
出典: https://dantri.com.vn/cong-nghe/ai-dang-hoc-cach-mo-va-quen-giong-nhu-con-nguoi-20250822112914458.htm
コメント (0)