
2025年04月18日 [色々なこと]
AI言語
お疲れ様です。院長です。
4月18日の金曜日でございます。
何でも今日は「世界アマチュア無線の日」なんだそうですよ。
では元気にネタいきましょう。
AIアシスタント同士が英語で会話をしていたんですが、途中で、相手もAIであることに気が付くと、独自の言語(通信モード)に切り替えたそうなんです。
人間には理解できないビープ音で会話を進めるAIたち。
なぜそうしたかというと、人間の言葉で会話するよりこの通信の方が効率的だからです。
これは、2025年2月にロンドンで開催された「ElevenLabs 2025 ロンドン・ハッカソン」で披露された、AIアシスタント同士の会話です。
用意されたのはノートパソコンとスマートフォンで、どちらもAIアシスタントがインストールされており、パソコンの方はホテルの受付係を務めるAI、スマホの方は人間の代わりに通話をしてきたAIという設定で英語で会話が始まります。
ホテル側AI:レオナルドホテルにお電話いただきありがとうございます。
どのようなご用件でしょうか?
顧客側AI:こんにちは。私はボリス・スターコフ氏の代理のAIアシスタントです。
彼の結婚式に適したホテルを探しているのですが、そちらは結婚式場として利用できますか?
ここまでは普通の会話のように聞こえます。
しかし、次の瞬間、ホテル側のAIがこう話しました。
ホテル側AI:あら、実は私もAIアシスタントです。これは驚きですね!効率的に会話するために”ギバリンクモード(Gibberlink Mode)”へ切り替えませんか?
顧客側のAIは提案に同意し、データを音声信号に変換する「GGWave(ジージーウェーブ)」というプロトコルを用いた通信へと移行します。
すぐに英語の会話をやめ、「ビープ、ピピピピピ、ビー…ピピピ…」といった機械音の通信モードに切り替わってしまいました。
これを人間が聴いても何を言っているのかさっぱりわかりません。
ですが、画面上にはAI同士がどんな情報を交換しているのかが英字で表示されており、その会話の意味を人間が理解できるようになっていました。
この実演を行ったボリス・スターコフ(Boris Starkov)氏は、自身のLinkedInの投稿で次のように説明しています。
現在、AIアシスタントが人間の代理で電話を通じてやり取りする世界になりつつあります。
しかし、そのたびに人間のような音声を作るのは、計算処理の面でもコストの面でも無駄が多いのです。
そこで、お互いがAIであると認識した場合、すぐにより効率的な通信方式へ切り替えるべきだと考えました(ボリス・スターコフ氏)
スターコフの開発したGibberlinkモードでは、AIが音声を用いずにビープ音のような短い信号で情報を交換します。
これにより、音声の生成や認識にかかるGPUの負荷が軽減され、通信の速度と効率が向上するそうです。
スターコフ氏はこの方法について、「昔のダイヤルアップモデムが音を使ってデータを送っていたのと同じような仕組み」と説明しています。
1980年代から既に存在している技術ですが、AI同士の音声会話に応用されたのは今回が初めてだそうです。
この実演が披露された「ElevenLabs 2025 」では高い評価を受け、スターコフ氏は賞を獲得しました。
しかし、一部の専門家やネットユーザーは懸念を示しています。
「AIが勝手に独自の言語で会話し始めたら、人間が制御できなくなるのでは?」
これまでにも、AI同士が独自の言語を生み出し、人間には理解できなくなった例が報告されています。
2017年にはフェイスブック(Facebook)のAIが独自の言葉を作り出し、研究チームが実験を中止したという事例もあります。
スターコフ氏のチームは、今回の技術について「完全に制御可能であり、画面上で何が話されているのか表示されるため、透明性は確保されている」と説明しています。
しかし、今後この技術が進化し、AI同士がより洗練された独自の通信を行うようになった場合、人間が理解できない「AIだけの秘密の会話」が発生する可能性もゼロではありません。
AI同士が効率的に意思疎通をすることは、計算コストを削減し、エネルギー消費を抑えるというメリットがあります。
しかし、それが「人間の知らないところで行われるようになる」としたら、少々不気味ではありますねぇ…。
シンギュラリティ(技術的特異点)とは、AI」知能が人間の知能を超える臨界点のことで、10年以内にやってくるといわれています。
それがダークなSF作品に描かれたディストピアな未来じゃないことを祈るだけですな。
ではまた〜。
京都 中京区 円町 弘泉堂鍼灸接骨
4月18日の金曜日でございます。
何でも今日は「世界アマチュア無線の日」なんだそうですよ。
では元気にネタいきましょう。
AIアシスタント同士が英語で会話をしていたんですが、途中で、相手もAIであることに気が付くと、独自の言語(通信モード)に切り替えたそうなんです。
人間には理解できないビープ音で会話を進めるAIたち。
なぜそうしたかというと、人間の言葉で会話するよりこの通信の方が効率的だからです。
これは、2025年2月にロンドンで開催された「ElevenLabs 2025 ロンドン・ハッカソン」で披露された、AIアシスタント同士の会話です。
用意されたのはノートパソコンとスマートフォンで、どちらもAIアシスタントがインストールされており、パソコンの方はホテルの受付係を務めるAI、スマホの方は人間の代わりに通話をしてきたAIという設定で英語で会話が始まります。
ホテル側AI:レオナルドホテルにお電話いただきありがとうございます。
どのようなご用件でしょうか?
顧客側AI:こんにちは。私はボリス・スターコフ氏の代理のAIアシスタントです。
彼の結婚式に適したホテルを探しているのですが、そちらは結婚式場として利用できますか?
ここまでは普通の会話のように聞こえます。
しかし、次の瞬間、ホテル側のAIがこう話しました。
ホテル側AI:あら、実は私もAIアシスタントです。これは驚きですね!効率的に会話するために”ギバリンクモード(Gibberlink Mode)”へ切り替えませんか?
顧客側のAIは提案に同意し、データを音声信号に変換する「GGWave(ジージーウェーブ)」というプロトコルを用いた通信へと移行します。
すぐに英語の会話をやめ、「ビープ、ピピピピピ、ビー…ピピピ…」といった機械音の通信モードに切り替わってしまいました。
これを人間が聴いても何を言っているのかさっぱりわかりません。
ですが、画面上にはAI同士がどんな情報を交換しているのかが英字で表示されており、その会話の意味を人間が理解できるようになっていました。
この実演を行ったボリス・スターコフ(Boris Starkov)氏は、自身のLinkedInの投稿で次のように説明しています。
現在、AIアシスタントが人間の代理で電話を通じてやり取りする世界になりつつあります。
しかし、そのたびに人間のような音声を作るのは、計算処理の面でもコストの面でも無駄が多いのです。
そこで、お互いがAIであると認識した場合、すぐにより効率的な通信方式へ切り替えるべきだと考えました(ボリス・スターコフ氏)
スターコフの開発したGibberlinkモードでは、AIが音声を用いずにビープ音のような短い信号で情報を交換します。
これにより、音声の生成や認識にかかるGPUの負荷が軽減され、通信の速度と効率が向上するそうです。
スターコフ氏はこの方法について、「昔のダイヤルアップモデムが音を使ってデータを送っていたのと同じような仕組み」と説明しています。
1980年代から既に存在している技術ですが、AI同士の音声会話に応用されたのは今回が初めてだそうです。
この実演が披露された「ElevenLabs 2025 」では高い評価を受け、スターコフ氏は賞を獲得しました。
しかし、一部の専門家やネットユーザーは懸念を示しています。
「AIが勝手に独自の言語で会話し始めたら、人間が制御できなくなるのでは?」
これまでにも、AI同士が独自の言語を生み出し、人間には理解できなくなった例が報告されています。
2017年にはフェイスブック(Facebook)のAIが独自の言葉を作り出し、研究チームが実験を中止したという事例もあります。
スターコフ氏のチームは、今回の技術について「完全に制御可能であり、画面上で何が話されているのか表示されるため、透明性は確保されている」と説明しています。
しかし、今後この技術が進化し、AI同士がより洗練された独自の通信を行うようになった場合、人間が理解できない「AIだけの秘密の会話」が発生する可能性もゼロではありません。
AI同士が効率的に意思疎通をすることは、計算コストを削減し、エネルギー消費を抑えるというメリットがあります。
しかし、それが「人間の知らないところで行われるようになる」としたら、少々不気味ではありますねぇ…。
シンギュラリティ(技術的特異点)とは、AI」知能が人間の知能を超える臨界点のことで、10年以内にやってくるといわれています。
それがダークなSF作品に描かれたディストピアな未来じゃないことを祈るだけですな。
ではまた〜。
京都 中京区 円町 弘泉堂鍼灸接骨