[新製品・サービス]

インテック、オンプレミスで動作するLLMのSIを提供、最短1カ月でセキュアなローカルAI環境を構築

2026年1月30日(金)IT Leaders編集部、日川 佳三

インテックは2026年1月29日、オンプレミス環境で生成AI/大規模言語モデル(LLM)を活用できる「ローカルLLM導入支援」を開始した。クラウドを介さずに稼働するLLMを最短1カ月で構築する。セキュリティやコストなどが不透明で導入に踏み切れない製造業や金融業などを対象に、機密情報を扱う業務でも安全に生成AIを利用できる環境を提供する。料金は参考価格で500万円(税別)から。

 インテックは、生成AI/大規模言語モデル(LLM)をオンプレミス環境に最短1カ月で構築するSIサービスを開始した。セキュリティ懸念やコストの不透明さから生成AIの導入を躊躇している製造業や金融業などの企業に向けて提供する(図1)。外部ネットワークから遮断されたオンプレミスや閉域ネットワーク内に、専用のGPUサーバーとLLM、RAG(検索拡張生成)機能などをパッケージにしている。

図1:ローカルLLMの導入を支援するSIサービスの概要(出典:インテック)
拡大画像表示

 サービス提供の背景として、企業のDX推進において生成AIの重要性は高まっているものの、機密情報の安全性やコンプライアンスへの懸念から、実際の導入や活用が停滞するケースは少なくないことを挙げる。「一般的なクラウド型LLMは、データが外部サーバーに送信されるため情報漏洩のリスクがあるほか、提供元がモデルを管理するため自社業務に合わせた調整が難しく、従量課金制により中長期的なコスト予測が困難である」(同社)。

 同サービスの特徴は、情報の外部流出リスクを極限まで低減できる点にある。一般的なクラウド型LLMは入力データが外部サーバーに送信されるが、本サービスでは自社環境内に保管された情報を参照し、外部通信なしで回答を生成する。これにより、個人情報や知的財産などの機密情報を扱う業務への適用が可能になる。

 構築のステップとして、規模を限定したスモールスタート/PoCを重視している。最短1カ月という短期間で環境を構築し、実際の業務を通じた効果検証を迅速に行える。資産として保有する形態のため、中長期的な利用コストの予測が容易になるメリットもある。将来の拡張として、GPUサーバーの増設やデータセンターを含めたインフラ全体の設計・構築まで段階的にスケールアップできる。

関連キーワード

インテック / 大規模言語モデル / SI / 生成AI

関連記事

トピックス

[Sponsored]

インテック、オンプレミスで動作するLLMのSIを提供、最短1カ月でセキュアなローカルAI環境を構築インテックは2026年1月29日、オンプレミス環境で生成AI/大規模言語モデル(LLM)を活用できる「ローカルLLM導入支援」を開始した。クラウドを介さずに稼働するLLMを最短1カ月で構築する。セキュリティやコストなどが不透明で導入に踏み切れない製造業や金融業などを対象に、機密情報を扱う業務でも安全に生成AIを利用できる環境を提供する。料金は参考価格で500万円(税別)から。

PAGE TOP