LangChain wprowadza system AgentMiddleware umożliwiający programistom dostosowywanie zachowania agentów AI za pomocą haków do wykrywania danych osobowych, dynamicznego wyboru narzędzi i produkcjiLangChain wprowadza system AgentMiddleware umożliwiający programistom dostosowywanie zachowania agentów AI za pomocą haków do wykrywania danych osobowych, dynamicznego wyboru narzędzi i produkcji

LangChain Prezentuje Middleware Agenta do Tworzenia Niestandardowych Struktur AI

2026/03/26 23:31
3 min. lektury
W przypadku uwag lub wątpliwości dotyczących niniejszej treści skontaktuj się z nami pod adresem crypto.news@mexc.com

LangChain Prezentuje Middleware dla Agentów do Tworzenia Niestandardowych Platform AI

Felix Pinkston 26 mar 2026 15:31

LangChain wprowadza system AgentMiddleware umożliwiający programistom dostosowywanie zachowania agentów AI za pomocą haków do wykrywania danych osobowych, dynamicznego wyboru narzędzi i funkcji gotowych do produkcji.

LangChain Prezentuje Middleware dla Agentów do Tworzenia Niestandardowych Platform AI

LangChain wydał kompleksowy system middleware, który pozwala programistom dostosowywać zachowanie agentów AI bez przebudowywania podstawowej infrastruktury od podstaw. Framework, szczegółowo opisany w poście na blogu z 26 marca 2026 roku, wprowadza sześć odrębnych haków, które przechwytują i modyfikują wykonywanie agenta na każdym etapie pętli.

Architektura middleware rozwiązuje uporczywy problem w tworzeniu agentów: lukę między prototypami gotowymi do demonstracji a systemami produkcyjnymi. Podczas gdy podstawowe dostosowania, takie jak zmiana promptów systemowych lub dodawanie narzędzi, zawsze były proste, modyfikowanie fundamentalnej pętli agenta — tego, co dzieje się przed wywołaniami modelu, jak wykonywane są narzędzia, kiedy interweniują ludzie — wymagało obszernego niestandardowego kodu.

Jak Działa System Haków

AgentMiddleware udostępnia sześć punktów interwencji. before_agent uruchamia się raz przy wywołaniu w celu załadowania pamięci lub walidacji danych wejściowych. before_model wykonuje się przed każdym wywołaniem LLM, przydatny do przycinania historii lub wychwytywania wrażliwych danych. wrap_model_call obsługuje buforowanie, ponowne próby i dynamiczne wiązanie narzędzi. wrap_tool_call robi to samo dla wykonywania narzędzi. after_model wstawia przepływy pracy z udziałem człowieka. after_agent obsługuje czyszczenie i powiadomienia.

Te middleware można układać w stosy. Programiści mogą nakładać wiele modyfikacji bez konfliktów.

Wbudowane Rozwiązania dla Typowych Problemów

LangChain dostarcza gotowe middleware dla wzorców, które pojawiają się we wdrożeniach produkcyjnych. PIIMiddleware implementuje haki before_model i after_model do maskowania, redagowania lub hashowania danych osobowych — kluczowe dla zgodności z HIPAA, gdzie nie można po prostu wymusić bezpieczeństwa prawnego za pomocą promptów.

LLMToolSelectorMiddleware radzi sobie z rozrostem kontekstu, uruchamiając szybki model w celu identyfikacji odpowiednich narzędzi z rejestru przed głównym wywołaniem, wiążąc tylko to, co jest potrzebne. SummarizationMiddleware zapobiega przepełnieniu kontekstu, kompresując historię wiadomości, gdy liczba tokenów wzrasta zbyt wysoko.

ModelRetryMiddleware owija wywołania API konfigurowalnymi logikami ponownych prób — liczby ponownych prób, współczynniki wycofania, początkowe opóźnienia dla ograniczania szybkości. ShellToolMiddleware obsługuje inicjalizację i zamykanie zasobów wokół pętli agenta.

Deep Agents jako Dowód Koncepcji

LangChain zbudował Deep Agents całkowicie na tym stosie middleware, aby zweryfikować architekturę. Platforma agenta działa na create_agent, standardowym punkcie wejścia LangChain, ze specjalistycznym middleware nałożonym na wierzch: FilesystemMiddleware do zarządzania kontekstem opartym na plikach, SubagentMiddleware dla subagentów izolowanych kontekstowo, SkillsMiddleware do stopniowego ujawniania możliwości.

Podejście pozwala zespołom niezależnie zarządzać różnymi obszarami. Logika biznesowa pozostaje oddzielona od podstawowego kodu agenta. Wielokrotnie używane middleware może rozprzestrzeniać się w organizacjach bez ścisłego powiązania.

Co To Oznacza dla Tworzenia Agentów

LangChain przyznaje, że poprawa możliwości modeli ostatecznie wchłonie niektóre obecne funkcje middleware — podsumowanie, wybór narzędzi, przycinanie danych wyjściowych może przenieść się do samych modeli. Ale deterministyczne egzekwowanie zasad, zabezpieczenia produkcyjne i logika specyficzna dla biznesu nie zmigrują. Te pozostają w warstwie platformy.

Programiści mogą zacząć od create_agent dla minimalnych konfiguracji lub create_deep_agent dla bardziej solidnych podstaw. Niestandardowe wkłady middleware są akceptowane poprzez dokumentację integracji LangChain.

Źródło obrazu: Shutterstock
  • langchain
  • agenci ai
  • middleware
  • deep agents
  • narzędzia deweloperskie
Okazja rynkowa
Logo READY
Cena READY(READY)
$0.01056
$0.01056$0.01056
0.00%
USD
READY (READY) Wykres Ceny na Żywo
Zastrzeżenie: Artykuły udostępnione na tej stronie pochodzą z platform publicznych i służą wyłącznie celom informacyjnym. Niekoniecznie odzwierciedlają poglądy MEXC. Wszystkie prawa pozostają przy pierwotnych autorach. Jeśli uważasz, że jakakolwiek treść narusza prawa stron trzecich, skontaktuj się z crypto.news@mexc.com w celu jej usunięcia. MEXC nie gwarantuje dokładności, kompletności ani aktualności treści i nie ponosi odpowiedzialności za jakiekolwiek działania podjęte na podstawie dostarczonych informacji. Treść nie stanowi porady finansowej, prawnej ani innej profesjonalnej porady, ani nie powinna być traktowana jako rekomendacja lub poparcie ze strony MEXC.