LangChain встречает Gradient: открытый исходный код, безсерверный и быстрый

LangChain встречает Gradient: открытый исходный код, безсерверный и быстрый


Когда вы создаете приложения с искусственным интеллектом, правильные инструменты имеют решающее значение. LangChain был основным фреймворком на протяжении многих лет, и его богатая экосистема интеграций помогает разработчикам быстро переходить от идеи к производству.

С langchain-gradient, официальной интеграцией от DigitalOcean для langchain, вы можете соединить безсерверный интерфейс Gradient AI от DigitalOcean с агентами, инструментами и цепочками Langchain.

В этом руководстве вы узнаете, почему langchain-gradient помогает разработчикам улучшить их рабочий процесс агентов, как быстро подключить безсерверное инференс-сервер Gradient к LangChain и как использовать invoke и stream с лаконичными примерами.

Что такое LangChain-Gradient?

Новая интеграция langchan-gradient может улучшить ваши рабочие процессы несколькими способами:

  • Простая замена для существующего кода LangChain: замените конечные точки Gradient за несколько строк — без переписывания, без рефакторинга, просто вставьте и работайте.
  • Знакомые абстракции LangChain (Цепочки, Инструменты, Агенты): Стройте с помощью уже известных вам примитивов — комбинируйте цепочки, подключайте инструменты и запускайте агентов, не меняя ваш рабочий процесс.
  • Выберите из нескольких моделей: мгновенно получайте доступ к нескольким ИИ-моделям с ускоренной GPU, без серверного взаимодействия на DigitalOcean.
  • Оставайтесь открытыми и гибкими: пакет полностью с открытым исходным кодом и разработан для работы с последними версиями LangChain и Gradient AI Platform.

У LangChain есть собственная документация по интеграции, а также проект пакета PyPI, который помогает сделать интеграцию бесшовной.

Вы также можете посмотреть короткое руководство с примерами кода, демонстрирующее интеграцию в действии.

Получение ключа API DigitalOcean

Чтобы запустить langchain-gradient, сначала вам нужно получить ваш ключ из консоли DigitalOcean Cloud.

  1. Войти в консоль облака DigitalOcean.
  2. Открыть платформу агентов → Безсерверный вывод.
  3. Нажмите «Создать ключ доступа к модели», назовите его и создайте ключ.
  4. Используйте сгенерированный ключ в качестве вашего DIGITALOCEAN_INFERENCE_KEY.

Экспортируйте ваш ключ как переменную окружения:

export DIGITALOCEAN_INFERENCE_KEY="your_key_here" 

Установка LangChain-Gradient

Чтобы установить пакет, выполните следующую команду:

pip install langchain-gradient 

Доступные функции

  • вызывайте: простые, однократные вызовы

    • Используйте это, когда вам необходимо однократное завершение и вы готовы подождать полного ответа перед его обработкой. Он возвращает полную строку/объект сообщения после завершения генерации моделью. Идеально подходит для синхронных скриптов, пакетных заданий или серверных конечных точек, которые отвечают только один раз на запрос.
  • поток: потоковая передача токенов для отзывчивых пользовательских интерфейсов/логирования

    • Используйте это, когда вы хотите частичный вывод по мере его генерации. Он выдает фрагменты/токены постепенно, что позволяет отображать их в реальном времени в терминалах, блокнотах или чатах, и полезен для ведения журналов прогресса или сценариев раннего прерывания.
  • Используя Invoke

    import os   from langchain_gradient import ChatGradient   llm = ChatGradient(       model="llama3.3-70b-instruct",       api_key=os.getenv("DIGITALOCEAN_INFERENCE_KEY"),   ) result = llm.invoke(       "Summarize the plot of the movie 'Inception' in two sentences, and then explain its ending."   )   print(result) 
    • Импорты: ChatGradient — это совместимый с LangChain клиент LLM для Gradient.
    • llm=ChatGradient(…): Создает экземпляр LLM.

      • модель: Установите на «llama3.3-70b-instruct». Может быть любая доступная модель с платформы Gradient AI
    • api_key: Читает ваш ключ API Inference от DigitalOcean из окружения.
  • result=llm.invoke(„… ”): Отправляет запрос к выбранной модели и получает сгенерированный ответ.
  • Использование потоковой передачи

    from langchain_gradient import ChatGradient   llm = ChatGradient(       model="llama3.3-70b-instruct",       api_key=os.getenv("DIGITALOCEAN_INFERENCE_KEY"),   ) for chunk in llm.stream("Give me three fun facts about octopuses."):       print(chunk, end="", flush=True) 
    • llm.stream(“… ”): Запрашивает потоковый ответ на запрос.
    • для чанка в …: Итерирует по инкрементальным токенам/чанкам и выводит их в реальном времени.

    Это выводит токены по мере их поступления, что идеально подходит для командных интерфейсов, записных книжек или чат-интерфейсов.

    Часто задаваемые вопросы

    Что такое LangChain?

    LangChain — это фреймворк для создания приложений, основанных на больших языковых моделях. Он предоставляет стандартные абстракции (цепочки, инструменты, агенты) и большую экосистему интеграций, чтобы помочь разработчикам быстро собирать приложения с использованием LLM от начала до конца.

    Что такое langchain-gradient?

    Это официальная интеграция DigitalOcean, которая позволяет приложениям LangChain вызывать безсерверные конечные точки вывода Gradient AI с использованием клиента ChatGradient, совместимого с LangChain.

    Какие модели я могу использовать?

    Вы можете выбрать из нескольких моделей, размещенных в Gradient (например, варианты Llama). Выберите идентификатор модели из документации Gradient и передайте его ChatGradient через параметр модели.

    Как мне пройти аутентификацию?

    Создайте ключ доступа к модели в консоли облака DigitalOcean (Платформа агента → Безсерверный вывод), затем экспортируйте его как DIGITALOCEAN_INFERENCE_KEY и передайте его в ChatGradient.

    Поддерживает ли это потоковую передачу?

    Да. Используйте llm.stream(…) для получения токенов поэтапно — это идеально подходит для командных интерфейсов, блокнотов и чатов. Используйте llm.invoke(…) для простых одноразовых вызовов.

    Заключение

    langchain-gradient позволяет быстро и практично переходить от идеи к производству. С помощью клиентского интерфейса, знакомых абстракций LangChain и серверной инференции с ускорением на GPU на DigitalOcean вы можете быстро создавать прототипы, получать результаты в реальном времени и масштабироваться без переработки кода. Интеграция является открытым исходным кодом, гибкой и идет в ногу с последними обновлениями LangChain и Gradient, так что вы всегда остаетесь продуктивными.

    Комментарии

    Добавить комментарий

    Ваш адрес email не будет опубликован. Обязательные поля помечены *