米カリフォルニア大学のチームがピンクフロイドの楽曲を聞いた被験者の脳神経活動の電気信号からAIを使って楽曲を再構築するシステムを開発したとのことです。
これは、話す能力を失った人たちがコンピュータのようにぎこちない話し方ではなく、自然な発音で話せるようになる技術として使えることを目指しているとのことです。
脳の電気信号から再構築した楽曲は鮮明ではないものの、何の曲かがわかっていれば、聞き取れるレベルのものだということだそうで今後さらに改良が進められていくとのことでした。
現在アメリカでは、脳の電気信号とAI技術を組み合わせた形の研究開発が盛んに行われており、病気や事故などで機能の一部を失ってしまった人にとっては大いに期待をしたいところです。