Безопасный интеллект: как подружить Drupal с Ollama
Ollama – это open source платформа для локального развертывания и запуска больших языковых моделей (LLM) без отправки данных на сторонние серверы.
Мы в Initlab используем Ollama для автоматизации задачи категоризации тикетов, саммаризации логов в нашем хелпдеске на Drupal. Ollama в нашем случае помогает выполнять всю обработку данных в LLM на нашем выделенном сервере без привлечения сторонних сервисов и отправки чувствительных данных в облако. В статье описан наш опыт внедрения Ollama через NoCode конструктор бизнес-процессов ECA, опыт использования различных LLM для автоматизации работы нашей поддержки, даны примеры промптов. Аналогичный подход может быть использован для автоматизации работы с помощью локальных LLM на любых других платформах, например CRM Битрикс 24 и AMO CRM, 1C: Предприятие и т.д.