カリフォルニア大学サンフランシスコ校(UCSF)の研究チームは、声を出す際に脳で発生する電気信号を解析することで、発声される言葉を信号パターンから合成することに成功した。
まだ初歩的な段階であるが、将来は脳卒中や外傷による神経障がい、パーキンソン病、筋萎縮性側索硬化症(ALS)などによって声を出せなくなった人の支援技術につながる成果だとした。
記事原文はこちら(『CNET Japan』2019年5月8日掲載)
※記事公開から日数が経過した原文へのリンクは、正常に遷移しない場合があります。ご了承ください。
Comments are closed.