MENU
コンタクトセンターDX最前線

【Vol.30】LLMは用途に応じて選んで使う時代に突入!
AIとデータのためのプラットフォームIBM watsonxとは?

2025/01/28

コンタクトセンターでも生成AIの導入が活発になっています。

コールセンター白書2024によると、コンタクトセンターにおける生成AIの導入率は2023年が5.1%だったのに対して、2024年は18.9%まで増えており、この1年で一気に導入が進んだことが分かります。さらに、50.2%の企業が「活用を検討中」と回答しており、今後も積極的な活用が期待されます。

そこで今回は、業務で効果的に生成AIを活用するために生成AIとどう向き合っていくべきかについて、LLMに焦点を当てて解説していきます。

IBM watsonxとは?

IBM watsonxは、複数のLLMを一元管理できる統合AIプラットフォームで、企業独自のAIモデル開発はもちろん、オープンソースなどを含むさまざまなAIモデルの活用・構築を支援する「watsonx.ai」、自社固有のデータを一元管理・活用するための「watsonx.data」、信頼できるAIの構築を支援する「watsonx.governance」から構成されています。

IBM watsonxはIBM Cloudだけではなく、他社クラウドやオンプレでも利用できるため、セキュリティの観点からクラウドに保管できない機密性の高い情報を扱う業務でも安全に活用できる点もポイントです。

watsonxシリーズの構成
  • ・統合的なモデル開発/運用環境 (watsonx.ai)
  • ・ガバナンスを意識したAIのライフサイクル管理 (watsonx.governance)
  • ・AIモデル開発検証に必要なデータの管理基盤 (watsonx.data)


watsonxシリーズの特長
  • ・IBM Cloudだけでなく 他社クラウド、オンプレミスでも稼働
  • ・マルチ基盤モデルを前提とした環境
  • ・IBM製のモデルの透明性, オープン性
  • ・既存Watsonサービスとの連携

LLMとは?

生成AIとは、文章生成や画像生成、音声合成、コード生成など、大量のデータを学習し、新しいコンテンツを生成する技術です。その中でも自然言語処理に特化したものを「LLM(大規模言語モデル)」といいます。

LLMは、インターネット上の膨大なテキストデータを使って、単語や文章のパターンを学習しており、人の言葉を理解し、生成することを得意としています。質問への回答や、翻訳、文章生成、要約などさまざまな用途で活用されています。

【LLMの活用例】

抽出
テキストから必要な情報を効率的に取り出すことが可能。
特定の固有表現(ブランド、製品、人物、土地、企業など)や特定項目の抽出、重要な単語やフレーズの抽出。

分類
文章や単語の内容を理解し、適切なラベルを割り当てることが可能。
テキストから感情を判断する感情分析や、どのトピックに属するかのトピック分類、メールがスパムに該当するかなどのスパム検出、ユーザーの意図の検出(問い合わせ、苦情、購入希望など)など。

文書要約
報告書や記事など長い文章の内容を重要なポイントだけ抽出してまとめることが可能。原文から重要なフレーズなどをそのまま抜き出して要約する「抽出的文書要約」と原文の内容を理解した上で、新しい言葉で要約する「生成的文書要約」がある。
会議の議事録作成や顧客サポートの要約、ニュースの要約など。

テキスト生成
指示したテーマに応じて新しい文章を生成することが可能。プロンプトや条件次第で生成結果を柔軟に調整できる。
ブログ記事やエッセイ、メールの作成など。

質疑応答
入力された質問に対して、質問の文脈を理解し、自然な文章で回答を生成し、提示することが可能。正確な回答を生成するためには、プロンプト設計や知識ベースの整備が不可欠。
自社サービスや製品などに関する顧客サポートやFAQの自動生成など。

コード生成
プログラムコードを自動的に生成することが可能。プログラミング言語の文法や構造に従って適切なコードを出力でき、開発作業を大幅に効率化できる。
機能実装のサポートやテストコードの生成、デバッグ支援など。

翻訳
単なる単語の置き換えではなく、文脈やニュアンスを理解し、自然で流暢な翻訳が可能。
メールや契約書などグローバルでのやり取りや、Webサイトの多言語化対応、字幕の生成など。

特色のあるLLMを選んで使えるwatsonx.ai

従来は、質疑応答や文章生成、要約など、いずれの用途にも対応した汎用的なLLMが中心でしたが、最近ではより精度を上げて実用化していくために、特定の用途に特化したLLMが登場し始めています。

例えば、コード生成に特化したLLMには、MetaのCode Llamaや、IBMのGranite Codeなどがリリースされており、従来の汎用的なLLMでコードを生成するよりも、高い品質のコードを生成できます。

こうした特色のあるLLMは3か月単位でさまざまな企業からリリースされており、今後は用途に応じたLLMを処理ごとに使い分けることで、より高い精度で業務に活用できるようになると期待されています。一方で、続々とリリースされるLLMをアプケーションにスピーディーに組み込んでいけるかという課題も生じています。

そこで有効なソリューションがwatsonx.aiです。
watsonx.aiでは、IBMのLLM「Granite」だけではなく、オープンソースや企業独自のLLMなど30種類以上の特色あるLLMも利用することができます。検証や実装もスピーディーに行うことができ、選択したLLMを効率的に業務へ適応できます。

例えば、故障車の問い合わせサポートを想定した場合を例に解説します。

  • ① フォームなど、 Webアプリケーション(UI)を通じて、顧客の状況を収集する
  • ② LLMプラットフォームで質疑応答に特化したLLM①を選定
  • ③ LLM①(質疑応答)で追加の質問文章を生成し、顧客の状況を深堀する
  • ④ LLMプラットフォームで文書要約に特化したLLM②を選定
  • ⑤ LLM② (文書要約)でこれまでの状況を元に対応方法をまとめる
  • ⑥ LLMプラットフォームで文章生成に特化したLLM③を選定
  • ⑦ LLM③(文章生成)で分かりやすい表現に変更・生成し、お客さまへ提示


このように、watsonx.aiを活用すると、特色のあるLLMをプラットフォームを介して処理単位で使えるようになります。また、開発面でも、IBM watsonxでアプリケーションとLLMの連携を集約できるようになるため、LLMのバージョンアップがあった場合も、アプリケーションの改修は必要ありません。LLMの進化に対してスピード感を持って検証・対応できるようになります。

watsonx.aiと連携した応対支援サービスAI Dig

S&Iでは、コンタクトセンター向けに提供している応対支援サービス「AI Dig」とwatsonx.aiを連携し、複数のLLMを簡単に選択できるようにしています。
これまでは、新しいLLMが登場すると毎回多くの時間と労力をかけて検証しなければならなかったものが、今回の連携により、watxonx.aiにデプロイされているLLMを簡単に試せるようになり、スピーディーなサービス反映が可能になりました。

一方で、どのLLMを選べばいいのか分からないというお客さまも少なくないと思います。S&Iでは、お客さまのご要件やニーズに応じてどのLLMを選べばいいのかなどのご相談にも乗らせていただいています。ご興味のある方はぜひご相談ください。

コンタクトセンターDX最前線

新着コラム