翻訳サービスで生成AIの活用が進んでいます。従来の翻訳サービスでもニューラルネットワークやディープラーニング(深層学習)などのAI技術が活用されてきましたが、2023年ごろからはこれら従来型のAIに加えて、生成AIを組み込んだ翻訳サービスが増えてきました。
そこで、今回から2回に分けて、企業向け生成AI翻訳サービスとそのセキュリティーについて説明していきます。
生成AIを活用した翻訳サービスが登場
生成AIを活用した翻訳サービス(以下、生成AI翻訳サービス)は、従来型の機械翻訳よりも精度や柔軟性が向上していることが特長です。生成AI翻訳は、前後の文脈やニュアンスを判断して翻訳を行ったり、特定の分野に特化して翻訳を行ったりできます。対応言語も幅広く、細かい条件を指定して翻訳を行うこともできます。
生成AIには多くの種類がありますが、中でもよく知られているのがOpenAI社が提供するChatGPTです。ChatGPTはユーザーの質問に答えるかたちでさまざまな機能を提供していて、その一つに翻訳があります。ChatGPTのウェブサイトにアクセスし、プロンプトを使って翻訳を指示することで、生成AIを活用した翻訳ができます。
ChatGPTの他にも、Microsoft社のCopilot(コパイロット)やGoogle社のGemini(ジェミニ)、Anthropic社のClaude(クロード)などの生成AIがあり、同じように翻訳ができます。また、ウェブサイトやアプリなどにこれらを組み込んで、プロンプトを使わずに誰でも簡単に翻訳できるようにしたサービスも増えています。
気になるセキュリティーリスク
ただ、生成AIには、セキュリティーリスクもあります。例えば、AIがもっともらしいうそをつくハルシネーション(幻覚)や、機密情報が学習に利用されることで発生する情報漏えい、著作物を学習させることで発生する著作権侵害、AIモデルやシステムに存在する脆弱性を突いたサイバー攻撃などです。特に、サイバー攻撃については、米国のセキュリティー団体であるOWASP(Open Worldwide Application Security Project)が「LLM(大規模言語モデル)の脅威トップ10」として「学習データの汚染」「サプライチェーンの脆弱性」「機密情報の開示」「安全でないプラグインの設計」などを挙げ、システム開発や利用時に注意するように促しています。
一般向け生成AI翻訳サービスのセキュリティーリスク
生成AIのセキュリティーリスクは、企業が生成AI翻訳サービスを利用する際にも大きな懸念材料となります。
例えば、企業の担当者が業務文書の翻訳を行うときに、自社の機密情報を含むデータを外部の生成AI翻訳サービスにアップロードしてしまい、そのデータがAIの学習のために読み取られる懸念があります。もし、他のユーザーが翻訳を行った際に学習されたデータが翻訳として表示されれば、それが情報漏えいにつながることになります。
実際、2023年3月には、韓国の半導体企業で社員向けにChatGPTの利用を許可したところ、社員が設備情報や会議データなどの機密性の高い情報、少なくとも3件ChatGPTに入力してしまったという報道もされています。
Samsung、ChatGPTの社内利用で3件の機密漏洩(インプレスPC Watch)
OpenAI社の利用規約では「Our use of content(コンテンツの使用)」という項目で、同社のサービス維持などのためにユーザーの「コンテンツを使用する」ことが明示されています。ユーザー企業にとっては、データが外部に流出するリスクは常にあることになります。OpenAI社ではこうしたリスクに対応するため、AIモデルのためのデータの学習を望まない場合には「オプトアウト」することを求めています。
次回の後編では、企業向け生成AI翻訳サービスのセキュリティー対策を紹介します。