マクニカとneoAIは2025年3月7日、オンプレミス/ローカルで動作する生成AIシステムのSIサービスの提供で協業すると発表した。neoAIがLlama 3.1、Gemini 2、neoAI独自開発の日本語LLMなどを用いたローカルLLMを提供し、マクニカがシステムを構築する。構築から導入、伴走支援までワンストップで支援する。
マクニカとneoAIは、オンプレミス/ローカルで動作する生成AIシステムのSIサービスの提供で協業する。
情報漏洩・流出などの懸念から、LLM(大規模言語モデル)をオンプレミスで利用するローカルLLMの構築に注目が集まっている。「設計/製造プロセスのデータや顧客情報といった機密性の高いデータを扱う業務では、クラウドのLLMの利用を躊躇するケースがある。ローカルLLMでは、セキュリティ面に加えて、企業固有の業務やタスクに特化した利用や、長期的なコスト抑制といったメリットもある」(両社)。
ただし、多くの企業にとってローカルLLMの構築はハードルが高い。ITインフラではGPUサーバーの調達などが必要なうえ、LLMの推論・学習やRAG(検索拡張生成)構成のノウハウなどが問われる。構築後も生成AIアプリケーションの開発・保守、回答精度向上のためのチューニングなどに取り組む必要がある。

拡大画像表示
マクニカとneoAI、こうした課題を持つ企業に向けてローカルLLMのSIサービスを提供する。neoAIがLlama 3.1、Gemini 2、neoAI開発の日本語LLMなどを用いたローカルLLMを提供し、マクニカがITインフラ/システムを構築する。構築後のシステム運用や生成AIアプリケーションの活用を伴走型で支援する(図1)。