現在のAI音声クローンの品質は最低、今後の質向上でリスク増

2024年2月27日(火)9時27分 マイナビニュース

HackerOneは2月23日(米国時間)、「The Risk of AI Voice Cloning [Q&A With an AI Hacker]」において、シニアソリューションアーキテクト兼AIハッカーのDane Sherrets氏が語った、AI音声クローンを悪用した詐欺の深刻なリスクについて伝えた。この内容はYouTube動画の「The Risk of AI Voice Cloning: Q&A With an AI Hacker - YouTube」で視聴可能。
○AI音声クローン詐欺の深刻なリスク
Dane Sherrets氏の対談で語られたAI音声クローン詐欺の深刻なリスクの概要は次のとおり。
AI音声クローンはAI技術の一つであり、誰でも短時間の音声(場合によっては30秒未満)を使用して音声データを作成することが可能。この技術により、その声で自由に話すことができるようになる。この技術は肯定的な使用例のある魅力的なものだが、詐欺に悪用されるリスクもある
AI音声クローンの作成はとても簡単。AIの知識やオーディオエンジニアリングの経験がない人でも使用できるオープンソースモデルが大量にある。音声を取得しAIモデルをトレーニングするだけでその声で発音できるようになる
脅威アクターが標的の音声を録音する際、ソーシャルメディアにアップロードされるビデオや音声が使える。また、企業の最高経営責任者(CEO: Chief Executive Officer)などは講演やインタビューの動画を公開することがあるため、そのような人物の音声を取得することは簡単
AI音声を見抜くにはいくつかの兆候を捉えることが重要。「ロボットのような声」「自然な抑揚がない」「背景の雑音」「理解の困難な言葉が含まれる」など。また、話者が指示するとは思えない命令にも注意する。現在のAI音声クローンの品質は最低の状態であることを理解しておく必要がある。今後品質が向上するにつれこれら兆候は消えていくと考えられる
すべての人はAI音声クローンが現実のリスクであることを認識する必要がある。そして、それを特定する方法について同僚や家族間で話し合っておくことが望まれる。そのために本人を識別できるワードを事前に取り決めておくのも手の一つ。電話やボイスメールで相手が緊急の行動を求めてきたとき、詐欺の可能性を考慮して相手を必ず確認することが推奨される
AI音声クローンはもともと肯定的な目的で発明されたもの。声を失った人のサポートや、故人の音声の復元などの用途がある
近年、AIは急速な発展を遂げている。その中でも、生成AIは人間の活動の結果に近い出力を短時間に得られることから活用の場が広がっている。しかしながら、便利な技術や道具には必ず悪用しようとする者が現れる。善意の利用を推進し、悪用を妨害するために、すべての人々がリスクを認識して自己防衛を継続し、企業や行政には悪用を防止するための技術の開発と実用化が望まれている。

マイナビニュース

「音声」をもっと詳しく

「音声」のニュース

「音声」のニュース

トピックス

x
BIGLOBE
トップへ