Joerg Hiller
1404/12/03 04:38
LangChain جزئیات استفاده از سیستم حافظه Agent Builder خود را با استفاده از استعارههای سیستم فایل و چارچوب COALA برای ایجاد AI Agent های پایدار و یادگیرنده بدون نیاز به کدنویسی شرح میدهد.
LangChain پرده از معماری حافظهای که LangSmith Agent Builder خود را قدرت میبخشد برداشته و یک رویکرد مبتنی بر سیستم فایل را آشکار کرده است که به AI Agent ها اجازه میدهد در جلسات مختلف یاد بگیرند و سازگار شوند بدون اینکه کاربران نیاز به نوشتن کد داشته باشند.
این شرکت یک شرط غیرمعمول بست: اولویت دادن به حافظه از روز اول به جای اضافه کردن آن بعداً مانند اکثر محصولات هوش مصنوعی. استدلال آنها؟ Agent Builder ایجنتهای وظیفهمحور ایجاد میکند، نه چتباتهای عمومی. وقتی یک ایجنت یک گردکار را به طور مکرر مدیریت میکند، درسهای جلسه سهشنبه باید به طور خودکار در چهارشنبه اعمال شوند.
فایلها به عنوان حافظه
به جای ساخت زیرساخت حافظه سفارشی، تیم LangChain به چیزی تکیه کرد که مدلهای زبانی بزرگ از قبل به خوبی میفهمند—سیستمهای فایل. این سیستم حافظه ایجنت را به عنوان مجموعهای از فایلها نمایش میدهد، اگرچه آنها در واقع در Postgres ذخیره میشوند و به عنوان یک سیستم فایل مجازی در معرض ایجنتها قرار میگیرند.
معماری به طور مستقیم با سه دسته حافظه مقاله تحقیقاتی COALA مطابقت دارد. حافظه رویهای—قوانینی که رفتار ایجنت را هدایت میکنند—در فایلهای AGENTS.md و پیکربندیهای tools.json قرار دارند. حافظه معنایی که شامل واقعیتها و دانش تخصصی است، در فایلهای مهارتی قرار دارد. تیم عمداً حافظه اپیزودیک (سوابق رفتار گذشته) را برای انتشار اولیه حذف کرد و شرط بست که برای مورد استفاده آنها اهمیت کمتری دارد.
فرمتهای استاندارد در جایی که ممکن بود برنده شدند: AGENTS.md برای دستورالعملهای اصلی، مهارتهای ایجنت برای وظایف تخصصی، و یک فرمت الهامگرفته از Claude Code برای زیرایجنتها. یک استثنا؟ یک فایل tools.json سفارشی به جای mcp.json استاندارد، که به کاربران اجازه میدهد فقط ابزارهای خاصی از سرورهای MCP را در معرض دید قرار دهند و از سرریز زمینه جلوگیری کنند.
حافظهای که خودش را میسازد
نتیجه عملی: ایجنتهایی که از طریق اصلاح به جای پیکربندی بهبود مییابند. LangChain یک مثال خلاصهکننده جلسه را بررسی کرد که در آن بازخورد ساده کاربر "به جای آن از نقاط گلوله استفاده کن" به طور خودکار فایل AGENTS.md ایجنت را بهروزرسانی کرد. تا ماه سوم، ایجنت ترجیحات قالببندی، قوانین مدیریت نوع جلسه و دستورالعملهای خاص شرکتکننده را جمعآوری کرده بود—همه بدون پیکربندی دستی.
ساخت این کار ساده نبود. تیم یک نفر را تمام وقت فقط برای پرامپتهای مرتبط با حافظه اختصاص داد و مسائلی مانند به خاطر سپردن ایجنتها در زمانی که نباید یا نوشتن در انواع فایل اشتباه را حل کرد. یک درس کلیدی: ایجنتها در اضافه کردن اطلاعات عالی هستند اما در تلفیق آنها مشکل دارند. یک دستیار ایمیل شروع به فهرست کردن هر فروشندهای کرد که باید نادیده گرفته شود به جای تعمیم دادن به "نادیده گرفتن همه تماسهای سرد".
تأیید انسانی مورد نیاز است
همه ویرایشهای حافظه به طور پیشفرض نیاز به تأیید صریح انسانی دارند—یک اقدام امنیتی در برابر حملات تزریق پرامپت. کاربران میتوانند این "حالت yolo" را در صورتی که نگرانی کمتری درباره ورودیهای مخرب دارند غیرفعال کنند.
رویکرد سیستم فایل قابلیت حمل را فعال میکند که DSL های قفلشده نمیتوانند با آن برابری کنند. ایجنتهای ساخته شده در Agent Builder به طور نظری میتوانند روی Deep Agents CLI، Claude Code یا OpenCode با اصطکاک حداقلی اجرا شوند.
آنچه در راه است
LangChain چندین بهبود برنامهریزی شده را مشخص کرد: حافظه اپیزودیک از طریق نمایش تاریخچه مکالمه به عنوان فایل، فرآیندهای حافظه پسزمینه که روزانه اجرا میشوند تا یادگیریهای از دست رفته را جبران کنند، یک دستور صریح /remember، جستجوی معنایی فراتر از grep پایه، و سلسلهمراتب حافظه در سطح کاربر یا سازمان.
برای توسعهدهندگانی که در حال ساخت AI Agent هستند، انتخابهای فنی در اینجا اهمیت دارند. استعاره سیستم فایل از پیچیدگی APIهای حافظه سفارشی میگذرد در حالی که بومی LLM باقی میماند. اینکه آیا این رویکرد با مدیریت وظایف پیچیدهتر و طولانیتر توسط ایجنتها مقیاسپذیر است یا خیر یک سؤال باز باقی میماند—اما LangChain شرط بسته است که فایلها چارچوبها را برای ساخت ایجنت بدون کد شکست میدهند.
منبع تصویر: Shutterstock
منبع: https://blockchain.news/news/langchain-agent-builder-memory-system-architecture

