種類と価格・補助制度

最新補聴器のラインナップ、だいたいの価格についてのご説明、補聴器購入を補助する制度や医療費控除についてのご説明。

補聴器ラインナップ

最新の
・耳穴型デジタル補聴器
・耳掛け補聴器
・箱形補聴器 

補聴器の価格について

補聴器にとって大切なことは、いろいろな機能がついていて何十万円もする補聴器よりも、どこまでよい音質の音をつくり出すことができるかであると考えています。 人により「自分が好きな音質」というものがあります。たとえ安くても、自分の耳に合った補聴器を選んでご購入ください。

 歴史上一番性能の良い補聴器は、多分ベートーベンが使った補聴器ではないでしょうか。 ベートーベンは耳が不自由だったにもかかわらず、素晴らしい曲をつくり続けました。彼の補聴器は、ラッパ型でピアノの上に置くようなとてつもなく大きな物だったそうです。 当然電気もない時代の補聴器で、筒の中に音をいれて音を大きくするという単純な構造ですが、これをスピーカーに応用したのが米国ボーズ社で、何十枚ものペーパーになる、ものすごい特許をもっています。
ベートーベンの補聴器は、筒を大きく長くしたもので、電気的な音よりも自然の法則で大きくしたのですから、当然たいへんすばらしい音質で、これ以上の音質の補聴器はまだ現代にはありません。はじめは、「こんな大きな補聴器は」と思い、苦笑したこともありましたが、理論的にもすばらしい音が出るのであれば、耳が不自由であっても、あきらめることなく、すばらしい曲を書き上げることができるのだと納得した次第です。

 補聴器は、ほぼすべてのタイプで機能はまず同じと考えてください。ただ小さくなればなるほど値段は高くなります。昔お爺さんが胸のポケットに入れていたようなタバコ大の箱形補聴器は、今でもあります。これは当然マイクもスピーカーも大きく性能はとてもよいのですが、大きいという点で値段は安くなります。耳の中に入れる耳穴型補聴器は、とても小さいのですが、小さい分だけ値段が高くなります。

(1)箱形:6万円前後 性能良く使いやすいけど大きいのが難点

(2)耳掛け型:10万~18万円前後 性能はよいが、耳にかけているのが見えてしまう

(3)耳穴型:18万円~25万円以上 耳に入れるので外からは見えにくいが、値段は高い


補聴器購入を補助する制度

平成25年4月1日から、従来の身体障害者福祉法を包括する「障害者総合支援法」が施行されました。補聴器は健康保険、生命保険では支給されません。身体障害者福祉法第15条指定医による診断をうけた手帳保持者の場合、難聴の程度に応じて補聴器支給を受けられる制度がありますので、居住しているの市町村の福祉法窓口にまずお問い合わせ下さい。尚、補聴器の購入費用である補装具費の支給は、原則として購入費用の1割を負担しますが、補聴器の種類や形式や基本構造により費用の額の上限額としての基準額が定まられています。また本人や家族の納税具合等により補装具費支給の対象にならない場合があるのでご留意ください。補聴器の購入の補助制度は、お住まいの地域により異なります。また自治体により申請者の経済状況や身体的状況や家族及び住環境等によっても異なる場合があります。居住している市町村の福祉法窓口にまずお問い合わせ下さい。また当院では認定補聴器技能者が、これらの法律や制度に応じたアドバイスが可能なのでお気軽にお尋ね下さい。

[支給までの行程(地域差があります)]
耳鼻咽喉科で適合判定がまず必要です。補装具の費用の支給は適合判定において以下の基準を満たすと判定されるときに施行されます。
(1) 両耳:平均聴力レベル70dB以上
(2) 片耳:平均聴力レベル90dB以上、もう一方:50dB以上
(3) 両耳による通常での会話での最良語音明瞭度が50%以下
以上の場合に、福祉事務所(市町村の福祉事務所や身体障害者福祉担当の窓口)にて補装具支給の手続きを行います。その後支給券・通知書の発行が行われまず。その後自宅に補装具費支給決定通知書と補装具費支給券が送付されます。補装具業者に補装具の費用支給券を提出し、契約を結んだ上で補聴器を購入することになります。購入した後、福祉事務所に領収書等を提出して、補装具費を請求します。身体障害者福祉法にて購入した補聴器は、修理が必要になった場合も、上記と同様の手続きで補聴器の修理にかかる費用の支給を受けることが可能です。尚自費で補聴器を購入された方は対象外となりますのでご留意ください。

「[東京都内の補聴器公的助成(区により異なります)]

東京都中央区 http://www.city.chuo.lg.jp/smph/kenko/gokoreinokata/zaitakushien/sonota/hotyoki.html

東京都港区  https://www.city.minato.tokyo.jp/kenko/fukushi/shogaisha/nichijosekatsu/hosogu.html

東京都千代田区  https://www.city.chiyoda.lg.jp/koho/kenko/shogaisha/teate/hochoki.html

東京都墨田区  http://www.city.sumida.lg.jp/kenko_fukushi/koureisya_kaigohoken/ziritu_sien/ta90200020150714170.html

東京都台東区 http://www.city.taito.lg.jp/index/kurashi/shogai/service/enjo/shaji/hosougu.html

東京都葛飾区 http://www.city.katsushika.lg.jp/kurashi/1000052/1002144/1002205.html

東京都江東区 http://www.city.koto.lg.jp/212106/fukushi/koresha/service/jisshi/6597.html

東京都大田区 https://www.city.ota.tokyo.jp/seikatsu/fukushi/kourei/kyufu/hocyouki.html

 


補聴器購入の医療費控除

 一定額以上に医療費を支払った場合において、適用される医療費の控除を医療費控除といい、所得控除のひとつです。補聴器の購入に関わる費用の医療費控除の条件には、日常生活において最低限としての用を足すために供される義手・義足・松葉杖・義歯を購入するための費用の扱いと同様に、医師歯科医師等の治療・診療等を受けるために直接に必要なものが要件となります。(所得税基本通達73-3)。すなわち補聴器の購入費が医療費控除の対象となる条件は単に聞こえを補うために使用するという目的ではなく、『医師による治療等の過程で直接必要とされて購入した補聴器の購入』であることが必要です。医療費控除対象額は実際に払った医療費の合計額から保険金などで補填される金額を引いて、10万円(総所得金額におり変化します)をさらに引いた額となります。

 医療費の控除を受けるための手続きは、控除に対して書いた「確定申告書」を、地域の管轄の税務署に提出をしなければなりません。確定申告書に領収書などの医療費の支出を証明する書類を添付する、または確定申告書を提出するときに提示します。この場合、診断書だけ提出する方がいらっしゃいます。病気等の診断内容を記載するものが、診断書というものなので、医療費が書いていないことがほとんどです。医療費のわかる領収書などを必ず用意して下さい。医療費控除の対象に、難聴に対して購入した補聴器はなりますが、医師の診断により、治療や矯正が必要であると判断される場合に限ります。医師の診断を受けることなく、販売員のすすめるままに補聴器を購入しても、医療費控除が受けられなくなることがありますのでご注意ください。眼科で検眼した後、結果に基づいての診断書・処方に対して眼鏡店で購入する眼鏡は、日常生活で最低限の用を足すために使用するものですが、医師の治療等の過程で直接必要なものとは認められませんので、医療費控除の対象ではありません(特殊な場合を除く)。これは補聴器でも同様であり、医師の治療等の過程において必要とされて購入した場合に対象となります。
まずファーストステップとして耳鼻咽喉科(できれば補聴器適合判定医)の診察をまず受けて、難聴以外の耳の病気の有無を含めて、耳及び聴力の精密検査を行い、補聴器の必要性を判断してもらい、医学的な治療や矯正の必要性があると医師より判断された後、最終的に補聴器を購入することをお勧めします。届け出をすれば全て医療費の控除は認められるものではないのでご留意下さい。医師による判断をベースに、医学的な治療・矯正を行うという過程で、必要とされる医療費の場合に医療費控除が認められますので、確定申告のときには医療費や補聴器の領収書以外に、病名や治療内容が書かれた診断書・処方せんを一緒に提出するとよいでしょう。尚、額面どおり医療費控除は戻ってくることではないです。実際に手元に戻るお金は、医療費控除額に所得税の税率を掛けた金額となります。詳しくはお近くの税務署へお尋ね下さい。
 参考:国税庁ホームページ「医療費控除の対象となる医療費」 [平成29年4月1日現在法令等]


「厚生労働省認定」補聴器適合検査施設とは

1)耳鼻咽喉科を標榜している保険医療機関であり、厚生労働省主催補聴器適合判定医師研修会を修了した耳鼻咽喉科を担当する常勤の医師が1名以上配置されていること。

 2)当該検査を行うために必要な次に掲げる装置・器具を常時備えていること。
◎音場での補聴器装着実耳検査に必要な機器並びに装置
◎騒音・環境音・雑音などの検査用音源又は発生装置
◎補聴器周波数特性測定装置

☆営利販売を主とする補聴器販売店とは異なり、難聴に対して高度な知識をもつ専門医師が常勤し、高額な補聴器を測定する装置を保持する保険医療機関のみ認定されます。


補聴器相談医とは

(社)日本耳鼻咽喉科学会認定補聴器相談医です。日本耳鼻咽喉科学会の認定専門医で、補聴器に関する講習会に参加した耳鼻科医がなることができます。慶友銀座クリニックの院長、大場俊彦は約1週間所沢での研修に参加しました。国内の補聴器の販売実態において、最近難聴者に対して不利益となるケースが多発しているので、早急の対応と改善が必要とされてきました。日本耳鼻咽喉科学会は、聞こえの不自由な難聴者が、コミュニケーションの障害に対して有効なる補聴器を、適性に選んで使用できるように、まず補聴器というものは、難聴による起こるコミュニケーションの障害の補完が目的である医療機器であると認識し、耳鼻咽喉科を専門とする医師の診断のもと、購入されるべきであるとしています。また補聴器の販売の従事者は、難聴者に有効でありそして適正なる補聴器を販売するため、耳鼻咽喉科の医師の指導を受けるとしています。各都道府県の地方部会においては、地方部会長や補聴器のキーパーソンや福祉医療委員会の委員や補聴器相談医等の協力のもとに上記事項の実現を目指すことにより実態の改善に努めていっています。このように日本耳鼻咽喉科学会・補聴器相談医は、「補聴器販売の在り方に関する日本耳鼻咽喉科学会の基本方針下記参照」に基づき、その方針の具体化を目標に診療と必要な活動を行っています。基本方針では、わが国における補聴器販売において難聴者に不利益となる事例が発生していることを踏まえ、日本耳鼻咽喉科学会は、難聴者がそのコミュニケーション障害に有効な補聴器を適正に選択して使用できるように実態の改善に努めることを宣言しています。一定の資格を満たした耳鼻咽喉科専門医を対象に日本耳鼻咽喉科学会の理事長が委嘱するとされています。日本耳鼻咽喉科学会(平成16年5月11日 理事会承認)では、補聴器の製造販売業者および販売業者に対してH17年度施行改正薬事法の遵守を指導するようにしています。管理医療機器である補聴器について、製造販売業者及び販売業者には、管理者の設置や品質の確保、苦情回収処理の義務があり、また、納品先記録の作成や一般消費者が適正に使用するための情報の提供の努力義務があります。.身体障害者福祉法による補聴器の交付において、適切な補聴器交付が行われるよう取り計らい、15条指定医がこれを確認するとしています。また耳鼻咽喉科医の指導を受けている販売店や販売業者を支援することにより、補聴器・集音器の宣伝で、薬事法による広告規制の遵守を指導するようにしています。
参考:補聴器販売の在り方に関する日本耳鼻咽喉科学会の基本方針


認定補聴器専門店とは

 公益財団法人テクノエイド協会(東京都新宿区)は、安全であり効果的な補聴器の販売と使用を推進しています。難聴者の自立と福祉の増進に寄与するために認定補聴器専門店の認定を行っています。補聴器の使用指導を的確に行うための知識や技能を習得していると協会が認定した認定補聴器が常駐しており、補聴器の適合調節や補聴の効果の確認を適切に行うために必要な設備があり、補聴器相談医と連携して業務を行っていることが認定要件となります。
参考 公益財団法人テクノエイド協会 


認定補聴器技能者とは

 公益財団法人テクノエイド協会が実施する最短5年の厳しい認定補聴器技能者養成課程を修了し、最終試験に合格したものに与えられます。最初の基礎講習は実務経験3年以上で日本耳鼻咽喉科学会の専門医の指導を受けているものが対象となります。その後2年間は日本耳鼻咽喉科学会の専門医との連携をしているものとなります。補聴器の調整だけでなく、聞こえない方々の日常の生活でのひとりひとりのコミュニケーションの改善を計画し、フィッティングの計画を立案し実践するという幅広い知識と技能を身につける。

参考 日本補聴器技能者協会


 大場先生の未来の「補聴器」講座

 院長の大場俊彦が保有する補聴システムに関する発明の内容です。補聴器の未来が書かれています。簡単な内容としては、従来難聴者に対して補聴器は音を大きくさせるだけであり、音声情報の意味内容を把握するためには不十分でした。また全ての音を増幅して提供するので、補聴器を使っている人は、音声情報以外の雑音が気になる人が多かったです。入力された音声に対して、音声認識と音声要約と音声合成を使う補聴システムを考案しました。音声認識と音声合成を使うことで、雑音がカットされることにより、語音明瞭度が改善されます。また音声要約をすることで、音声情報自体が少なくなることにより、音声情報の意味内容がより把握されやすくなることが期待されるという特許です。
 被引用特許というものがあります。これはある特許が通る課程で、日米の特許庁が、「あなたの出した特許は、この特許と考えが似ているから変更しなさい」と指示することがあります。簡単に言えばこれを被引用特許と言います。大場俊彦が出した特許は、医療関係では、人工内耳のトップシェアを誇るコクレア社(2件)、他には米国IBM(2件)・バンク=オブ=アメリカ(MITメディアラボでの研究に関連含む:7件)・三菱電機(1件)等の世界的な起業が出した特許よりも日米の特許庁より先進性が認められました。それらの会社が出した特許は、大場俊彦の発明した補聴システムの先進性のため変更を余儀なくされ、回避して出願したという経緯があります。下記をみると、補聴器の特許なのに、なぜ銀行やコンピューター会社が出した特許がでてくるのかと思われるでしょう。補聴システムは米国で音声装置で出願しています。未来の銀行の窓口業務では、窓口の女性がコンピューターにかわるとのことです。音声システムは、世界の銀行の窓口業務の標準となるIBMが開発したワトソンという人工知能にとり必要不可欠なシステムです。院長の考えた難聴者のためのシステムが、人工知能の銀行業務に関係するようになります。

バンク=オブ=アメリカの特許
US9138186 Systems for inducing change in a performance characteristic
 US8715178 Wearable badge with sensor
 US8715179 Call center quality management tool
 US9138186 Systems for inducing change in a performance characteristic
 US20110201899 Systems for inducing change in a human physiological characteristic
 US20110201959 Systems for inducing change in a human physiological characteristic
 US20110201960 Systems for inducing change in a human physiological characteristic

米国IBMの特許
US20130226576 Conference Call Service with Speech Processing for Heavily Accented Speakers
US8849666 Conference call service with speech processing for heavily accented speakers

三菱電機の特許
US8990092 Voice recognition device

コクレア社の特許
US8170677 Recording and retrieval of sound data in a hearing prosthesis
 US20070027676 Recording and retrieval of sound data in a hearing prosthesis

発明の名称 補聴器
 発明者・考案者 大場俊彦

出願番号 特願平11-338458 1999/11/29 国際出願番号 公開番号 特開2000-308198 2000/11/02
公表/再公表番号 国際公開番号 公告番号 請求公告番号 登録番号 特許第3670180号 2005/04/22

【要約】
 【課題】 喉頭摘出や舌口腔底切除や構音障害等による音声言語障害を有する人達が本来自身がもつ、或いは自在に変換させて自然な音声で発声することを可能とするとともに、外部からの音声を使用者に出力して聴覚を補う。
 【解決手段】 音声言語障害を有した使用者から発せられた音声及び/又は外部からの音声を検出して音声信号を生成し、音声認識を信号処理部22で行い、音声言語障害を有した使用者から発せられた音声を予めサンプリングすることで記憶した音声データ用い、認識結果に基づいて音声データを組み合わせ、出力する音声を示す音声情報を音声情報生成部23で生成する。これにより、補聴器1では、音声情報生成部23で生成した音声情報を外部に出力するとともに、外部からの音声を使用者に出力する。

請求の範囲
 【請求項1】 検出した音声を聴力障害者用に要約して提示する補聴器であって、外部からの音声を検出して音声信号を生成する音響電気変換手段と、上記音響電気変換手段からの音声信号を用いて音声認識処理を行う認識手段と、上記認識手段からの認識結果の意味内容が使用者にとって分かり易くなるよう、上記認識結果である音声情報を要約する変換手段と、上記認識手段による認識結果及び/又は認識結果を上記変換手段により変換した認識結果を出力させる制御信号を生成する出力制御手段と、上記出力制御手段で生成された制御信号に基づいて上記認識手段による認識結果及び/又は上記変換手段により変換された認識結果である音声情報を出力して使用者に音声を提示するための出力手段とを備え、上記出力制御手段は、上記認識手段からの認識結果に基づいて、上記認識手段による認識結果及び/又は認識結果を上記変換手段により加工変換した認識結果を、再度上記出力手段から出力するように制御することを特徴とする補聴器。
 【請求項2】 検出した音声を聴力障害者用に要約して提示する補聴器であって、外部からの音声を検出して音声信号を生成する音響電気変換手段と、上記音響電気変換手段からの音声信号を用いて音声認識処理を行う認識手段と、上記認識手段からの認識結果の意味内容が使用者にとって分かり易くなるよう、上記認識結果である音声情報を要約する変換手段と、上記認識手段による認識結果及び/又は認識結果を上記変換手段により変換した認識結果を出力させる制御信号を生成する出力制御手段と、上記出力制御手段で生成された制御信号に基づいて上記認識手段による認識結果及び/又は上記変換手段により変換された認識結果である音声情報を出力して使用者に音声を提示するための出力手段とを備え、上記出力手段は人工内耳機構からなり、上記出力制御手段は、上記認識結果及び/又は上記変換された認識結果を電気信号として出力するように上記制御信号を生成することを特徴とする補聴器。
 【請求項3】 検出した音声を聴力障害者用に要約して提示する補聴器であって、外部からの音声を検出して音声信号を生成する音響電気変換手段と、上記音響電気変換手段からの音声信号を用いて音声認識処理を行う認識手段と、上記認識手段からの認識結果の意味内容が使用者にとって分かり易くなるよう、上記認識結果である音声情報を要約する変換手段と、上記認識手段による認識結果及び/又は認識結果を上記変換手段により変換した認識結果を出力させる制御信号を生成する出力制御手段と、上記出力制御手段で生成された制御信号に基づいて上記認識手段による認識結果及び/又は上記変換手段により変換された認識結果である音声情報を出力して使用者に音声を提示するための出力手段とを備え、上記出力手段は圧挺板からなり、上記出力制御手段は、上記圧挺板に上記認識結果及び/又は上記変換された認識結果を振動として出力するように上記制御信号を生成することを特徴とする補聴器。
 【請求項4】 検出した音声を聴力障害者用に要約して提示する補聴器であって、外部からの音声を検出して音声信号を生成する音響電気変換手段と、上記音響電気変換手段からの音声信号を用いて音声認識処理を行う認識手段と、上記認識手段からの認識結果の意味内容が使用者にとって分かり易くなるよう、上記認識結果である音声情報を要約する変換手段と、上記認識手段による認識結果及び/又は認識結果を上記変換手段により変換した認識結果を出力させる制御信号を生成する出力制御手段と、上記出力制御手段で生成された制御信号に基づいて上記認識手段による認識結果及び/又は上記変換手段により変換された認識結果である音声情報を出力して使用者に音声を提示するための出力手段とを備え、上記出力手段は人工中耳機構からなり、上記出力制御手段は、上記認識結果及び/又は上記変換された認識結果を電気信号として出力するように上記制御信号を生成することを特徴とする補聴器。
 【請求項5】 検出した音声を聴力障害者用に要約して提示する補聴器であって、外部からの音声を検出して音声信号を生成する音響電気変換手段と、上記音響電気変換手段からの音声信号を用いて音声認識処理を行う認識手段と、上記認識手段からの認識結果の意味内容が使用者にとって分かり易くなるよう、上記認識結果である音声情報を要約する変換手段と、上記認識手段による認識結果及び/又は認識結果を上記変換手段により変換した認識結果を出力させる制御信号を生成する出力制御手段と、上記出力制御手段で生成された制御信号に基づいて上記認識手段による認識結果及び/又は上記変換手段により変換された認識結果である音声情報を出力して使用者に音声を提示するための出力手段とを備え、上記出力手段は、超音波出力機構からなり、上記出力制御手段は、上記超音波出力機構に上記認識結果及び/又は上記変換された認識結果を電気信号として出力するように上記制御信号を生成することを特徴とする補聴器。
 【請求項6】 検出した音声を聴力障害者用に要約して提示する補聴器であって、外部からの音声を検出して音声信号を生成する音響電気変換手段と、上記音響電気変換手段からの音声信号を用いて音声認識処理を行う認識手段と、上記認識手段からの認識結果の意味内容が使用者にとって分かり易くなるよう、上記認識結果である音声情報を要約する変換手段と、上記認識手段による認識結果及び/又は認識結果を上記変換手段により変換した認識結果を出力させる制御信号を生成する出力制御手段と、上記出力制御手段で生成された制御信号に基づいて上記認識手段による認識結果及び/又は上記変換手段により変換された認識結果である音声情報を出力して使用者に音声を提示するための出力手段とを備え、上記出力手段は、タクタイルエイド用振動子アレイからなり、上記出力制御手段は、上記振動子アレイに上記認識結果及び/又は上記変換された認識結果を電気信号として出力するように上記制御信号を生成することを特徴とする補聴器。
 【請求項7】 検出した音声を聴力障害者用に要約して提示する補聴器であって、外部からの音声を検出して音声信号を生成する音響電気変換手段と、上記音響電気変換手段からの音声信号を用いて音声認識処理を行う認識手段と、上記認識手段からの認識結果の意味内容が使用者にとって分かり易くなるよう、上記認識結果である音声情報を要約する変換手段と、上記認識手段による認識結果及び/又は認識結果を上記変換手段により変換した認識結果を出力させる制御信号を生成する出力制御手段と、上記出力制御手段で生成された制御信号に基づいて上記認識手段による認識結果及び/又は上記変換手段により変換された認識結果である音声情報を出力して使用者に音声を提示するための出力手段とを備え、上記出力手段は、聴性脳幹インプラント機構からなり、上記出力制御手段は、上記聴性脳幹インプラント機構に上記認識結果及び/又は上記変換された認識結果を電気信号として出力するように上記制御信号を生成することを特徴とする補聴器。
 【請求項8】 検出した音声を聴力障害者用に要約して提示する補聴器であって、外部からの音声を検出して音声信号を生成する音響電気変換手段と、上記音響電気変換手段からの音声信号を用いて音声認識処理を行う認識手段と、上記認識手段からの認識結果の意味内容が使用者にとって分かり易くなるよう、上記認識結果である音声情報を要約する変換手段と、上記認識手段による認識結果及び/又は認識結果を上記変換手段により変換した認識結果を出力させる制御信号を生成する出力制御手段と、上記出力制御手段で生成された制御信号に基づいて上記認識手段による認識結果及び/又は上記変換手段により変換された認識結果である音声情報を出力して使用者に音声を提示するための出力手段とを備え、上記音響電気変換手段、認識手段、変換手段、出力制御手段及び出力手段を複数の装置にて実現し、該複数の装置間を無線通信網にて接続し、少なくとも音声情報の送受信を行うことを特徴とする補聴器。
 【請求項9】 検出した音声を聴力障害者用に要約して提示する補聴器であって、外部からの音声を検出して音声信号を生成する音響電気変換手段と、上記音響電気変換手段からの音声信号を用いて音声認識処理を行う認識手段と、上記認識手段からの認識結果の意味内容が使用者にとって分かり易くなるよう、上記認識結果である音声情報を要約する変換手段と、上記認識手段による認識結果及び/又は認識結果を上記変換手段により変換した認識結果を出力させる制御信号を生成する出力制御手段と、上記出力制御手段で生成された制御信号に基づいて上記認識手段による認識結果及び/又は上記変換手段により変換された認識結果である音声情報を出力して使用者に音声を提示するための出力手段とを備え、上記音響電気変換手段は外部から検出された音声から生成した電気信号を用いて上記音声信号を生成するものである補聴器。
 【請求項10】 検出した音声を聴力障害者用に要約して提示する補聴器であって、外部からの音声を検出して音声信号を生成する音響電気変換手段と、上記音響電気変換手段からの音声信号を用いて音声認識処理を行う認識手段と、上記認識手段からの認識結果の意味内容が使用者にとって分かり易くなるよう、上記認識結果である音声情報を要約する変換手段と、上記認識手段による認識結果及び/又は認識結果を上記変換手段により変換した認識結果を出力させる制御信号を生成する出力制御手段と、上記出力制御手段で生成された制御信号に基づいて上記認識手段による認識結果及び/又は上記変換手段により変換された認識結果である音声情報を出力して使用者に音声を提示するための出力手段と、表示部と、上記認識手段による認識結果及び/又は上記変換手段により変換された認識結果である音声情報を上記表示部へ出力する手段とを備える補聴器。

利用分野
 【0001】
 【発明の属する技術分野】
 本発明は、マイクロホン等により検出した音声を聴力障害者が理解しやすい形式に加工変換して提示する補聴器、音声言語障害を持つ者より発せられた音声や音声言語障害を是正するために用いる補助的装置や手段(例として喉頭摘出後の代用発声法(speech production substitutes))により発せられた音声を加工変換して出力する補聴器に関する。

【0002】
 【従来の技術】
 補聴器には、気導方式と、骨導方式とが従来から使用されている。補聴器の種類としては、箱形補聴器、耳かけ補聴器、CROS(Contra-lateral Routing of Signal)補聴器、耳穴形補聴器がある。また、従来の処理方式として分けると、アナログ補聴器とディジタル補聴器とがある。また、補聴器には、小寺の報告によると集団で使用する大型のもの(卓上訓練用補聴器、集団訓練用補聴器)、個人的に使用する小型のものがある(小寺一興、補聴器の選択と評価 図説耳鼻咽喉科new approach メジカルビュ?,39,1996参照)。

【0003】
このディジタル補聴器は、マイクロホンで検出した音声を先ずA/D(analog/digital)変換処理することでディジタルデータを生成する。そして、このディジタル補聴器は、例えばフーリエ変換処理を施すことにより入力されたディジタルデータを周波数スペクトルに分解することで解析を行い、各周波数帯域毎に音声の感覚的な大きさに基づいた増幅度の算出を行う。そして、このディジタル補聴器は、各周波数帯域毎に増幅されたディジタルデータをディジタルフィルターに通過させてD/A変換処理を行って再び音声を使用者の耳に出力するように構成されている。これにより、ディジタル補聴器は、話し手の音声を雑音の少ない状態で使用者に聞かせていた。

【0004】
また、従来において、例えば喉頭摘出により音声障害をもつ人は、通常の声帯振動による発声機構を失い、音声生成が困難になる。

【0005】
 現在まで、喉頭摘出後の代用発声法として、音源としての振動体の性質から大別するとゴム膜(笛式人工喉頭)やブザー(電気人工喉頭(経皮型、埋込み型))等の人工材料を用いる方法と、下咽頭や食道粘膜を使用する方法(食道発声、気管食道瘻発声、ボイスプロステーシス(voice prostheses)使用の気管食道瘻発声)がある。また、その他の代用発声法としては、口唇を動かしたときに生じる筋電図を利用したものや聴力障害による発声障害者のために種々の音声処理技術を利用した発声発話訓練装置、パラトグラフ(palatograph)によるものや口腔内の振動子によるものが報告されている。

課題
 【0006】
 【発明が解決しようとする課題】
しかし、上述したディジタル補聴器では、各周波数帯域毎にディジタルデータを増幅させる処理を行っているだけなので、マイクロホンにより周囲の音を無作為に収音し、雑音をそのまま再生してしまい使用者の不快感が残り、アナログ補聴器と比べても、種々の聴力検査において大幅な改善はなかった。また、従来のディジタル補聴器では、難聴者の身体状態、利用状態及び使用目的に応じて検出した音声に対する処理を適応させることはなされていなかった。
 【0007】
そこで、本発明の目的は、使用者の身体状態、利用状態及び使用目的に応じて音声認識の結果を提示するとともに、ノイズが少ない状態で認識結果を提示することができる補聴器を提供することにある。
 【0008】
また、上記代用発声法に共通してみられるのは、喉頭摘出前の本人自身の本来の正常な状態での声帯振動によるものではないので、生成する音声の音質が良くなく、本来正常であった本人が発していた声とはかけ離れているという問題点が挙げられる。
 【0009】
そこで、本発明は、上述したような実情に鑑みて提案されたものであり、喉頭摘出や舌口腔底切除や構音障害等による音声言語障害を有する人達が本来自身がもつ、或いは自在に変換させて自然な音声で発声することを可能とするとともに、外部からの音声を使用者に出力して自然な会話を行わせることができる補聴器を提供することを目的とする。

手段
 【0010】
 【課題を解決するための手段】
 上述の課題を解決する本発明に係る補聴器は、音声言語障害を有した使用者から発せられた音声及び/又は外部からの音声を検出して音声信号を生成する音響電気変換手段と、上記音響電気変換手段からの音声信号に基づいて音声認識をする処理を行う音声認識手段と、音声データを記憶する記憶手段と、上記音声認識手段からの認識結果に基づいて上記記憶手段に記憶された音声データを組み合わせ、出力する音声を示す音声情報を生成する音声情報生成手段と、上記音声情報生成手段で生成された音声情報を音声に変換して外部に出力する使用者音声出力手段と、上記音声認識手段で認識された認識結果を上記外部からの音声として使用者に出力する外部音声出力手段とを備えることを特徴とするものである。
 【0011】
このような補聴器は、外部からの音声を使用者に出力するとともに、障害を有して発せられた音声を発声した使用者に出力する。
 【0012】
 本発明に係る補聴器は、外部からの音声を検出して音声信号を生成する音響電気変換手段と、上記音響電気変換手段からの音声信号を用いて音声認識処理を行う認識手段と、使用者の身体状態、利用状態及び使用目的に応じて、上記認識手段からの認識結果の内容を変更するように変換する変換手段と、上記認識手段による認識結果及び/又は認識結果を上記変換手段により変換した認識結果を出力させる制御信号を生成する出力制御手段と、上記出力制御手段で生成された制御信号に基づいて上記認識手段による認識結果及び/又は上記変換手段により変換された認識結果、である音声情報を出力して使用者に音声を提示するための認識結果を出力して認識結果である音声情報を使用者に提示する出力手段とを備えることを特徴とするものである。
 【0013】
このような補聴器は、変換手段で認識結果の内容を変更することで出力結果を変更して使用者に変換手段で変更された音声等を提示する。このような補聴器によれば、使用者の身体状態、利用状態及び使用目的に応じて自在に変換方式を変更して認識結果を提示する。

効果
 【0146】
 【発明の効果】
 以上詳細に説明したように、本発明に係る補聴器は、音声言語障害者を検出して得た認識結果に基づいて予め記憶した音声データを組み合わせて音声情報を音声に変換して外部に出力するとともに、外部からの音声を使用者に出力することができるので、喉頭摘出や舌口腔底切除や構音障害等による音声言語障害を有する人達が本来自身がもつ、或いは自在に変換させて自然な音声で発声することを可能とするとともに、外部からの音声を使用者に出力することで使用者の聴覚を補うことができる。
 【0147】
 本発明に係る補聴器は、使用者の身体状態、利用状態及び使用目的に応じて、上記認識手段からの認識結果の内容を変更するように加工変換する変換手段を備えているので、使用者の身体状態、利用状態及び使用目的に応じて音声認識の結果を提示するとともに、ノイズが少ない状態で認識結果を提示することができる。

実施例
 【0014】
 【発明の実施の形態】
 以下、本発明の実施の形態について図面を参照しながら詳細に説明する。
 【0015】
 本発明は、例えば図1及び図2に示すように構成された補聴器1に適用される。この補聴器1は、図1に示すように、ヘッドマウントディスプレイ (head-mounted display: HMD)2と、音声認識、音声情報の生成等を行うコンピュータ部3との間を光ファイバーケーブル4で接続してなる携帯型のものである。また、コンピュータ部3は、例えば使用者の腰部に装着されるような支持部5に付属して配設されており、当該支持部5に付属したバッテリ6から電力が供給されることで駆動するとともに、HMD2を駆動させる。
 【0016】
 HMD2は、使用者の目前に配置されるディスプレイ部7と、使用者からの音声を検出する使用者用マイクロホン8と、使用者に音声を出力する音声出力部9と、使用者の頭部に上述の各部を配置させるように支持する支持部5と、外部からの音声等を検出する外部用マイクロホン11とを備える。
 【0017】
ディスプレイ部7は、使用者の目前に配されることで例えば使用者用マイクロホン8及び/又は後述の外部用マイクロホン11で検出した音声の意味内容等を表示する。なお、このディスプレイ部7は、コンピュータ部3からの命令に応じて、上述の音声の意味内容のみならず、他の情報を表示しても良い。
 【0018】
 使用者用マイクロホン8は、使用者の口元付近に配設され、使用者が発した音声を検出する。そして、この使用者用マイクロホン8は、使用者からの音声を電気信号に変換してコンピュータ部3に出力する。
 【0019】
 外部用マイクロホン11は、丸板状に形成された音声出力部9の側面に設けられる。この外部用マイクロホン11は、外部からの音声を検出して電気信号に変換してコンピュータ部3に出力する。
 【0020】
この使用者用マイクロホン8及び外部用マイクロホン11は、配設する位置を問わず、使用者の操作に応じて、種々のマイク(骨導マイク、気導音と骨導音を拾い上げるマイクをもつ超小型送受話一体ユニットのマイク(日本電信電話株式会社製)、無指向性マイク、単一指向性(超指向性等)マイク、双指向性マイク、ダイナミックマイク、コンデンサーマイク(エレクトレットマイク)、ズームマイク、ステレオマイク、MSステレオマイク、ワイヤレスマイク)、セラミックマイク、マグネティックマイク、マイクロフォンアレイを用いても良い。また、イヤホンとしては、マグネティックイヤホンが使用可能である。これらのマイクの収音技術として、また、伝送技術としてエコーキャンセラ等を用いても良い。また、これらのマイクロホン8,11は、従来より採用されている利得調整器と音声調整器と出力制御装置(maximam output power control式、automatic recruitment control コンプレッション式等)を適用したものが使用可能である。
 【0021】
 更に、使用者用マイクロホン8及び外部用マイクロホン11は、図1に示すように、別個に設ける一例のみならず、一体に構成されたものであっても良い。
 【0022】
 支持部5は、例えば形状記憶合金等の弾性材料等からなり、使用者の頭部に固定可能とすることで、上述のディスプレイ部7,使用者用マイクロホン8,音声出力部9を所定の位置に配設可能とする。なお、この図1に示した支持部5は、使用者の額から後頭部に亘って支持部材を配設することでディスプレイ部7等を所定位置に配設するものの一例について説明したが、所謂ヘッドホン型の支持部であっても良いことは勿論であり、音声出力部9を両耳について設けても良い。
 【0023】
コンピュータ部3は、例えば使用者の腰部に装着される支持部5に付属されてなる。このコンピュータ部3は、図2に示すように、例えばマイクロホン8,11で検出して生成した電気信号が入力される。このコンピュータ部3は、電気信号を処理するためのプログラムを格納した記録媒体、この記録媒体に格納されたプログラムに従って音声認識、音声情報の生成処理を行うCPU(Central Processing Unit)等を備えてなる。なお、このコンピュータ部3は、腰部のみならず、頭部のHMD2と一体化しても良い。
 【0024】
コンピュータ部3は、使用者用マイクロホン8及び/又は外部用マイクロホン11で検出した音声から生成した電気信号に基づいて、記録媒体に格納されたプログラムを起動することで、CPUにより音声認識処理を行うことで、認識結果を得る。これにより、コンピュータ部3は、CPUにより、使用者用マイクロホン8及び/又は外部用マイクロホン11で検出した音声の内容を得る。
 【0025】
つぎに、本発明を適用した補聴器1の電気的な構成について図2を用いて説明する。この補聴器1は、音声を検出して音声信号を生成する上述のマイクロホン8,11に相当するマイクロホン21と、マイクロホン21で生成された音声信号が入力され音声認識処理を行う上述のコンピュータ部3に含まれる信号処理部22、信号処理部22からの認識結果に基づいて音声情報を生成する上述のコンピュータ部3に含まれる音声情報生成部23と、音声データが記憶され信号処理部22及び音声情報生成部23にその内容が読み込まれる上述のコンピュータ部3に含まれる記憶部24と、音声情報生成部23からの音声情報を用いて音声を出力する上述の音声出力部9に相当するスピーカ部25と、音声情報生成部23からの音声情報を用いて当該音声情報が示す内容を表示する上述のディスプレイ部7に相当する表示部26とを備える。
 【0026】
 上記マイクロホン21は、例えば喉頭摘出後の代用発声法を用いて発せられた使用者からの音声又は外部からの音声を検出して、当該音声に基づく音声信号を生成する。そして、このマイクロホン21は、生成した音声信号を信号処理部22に出力する。
 【0027】
また、このマイクロホン21は、使用者の口元付近に配設され、使用者が発した音声を検出する。また、このマイクロホン21は、外部からの音声を検出して音声信号を生成する。なお、以下の説明においては、使用者の音声を検出するマイクロホンを上述と同様に使用者用マイクロホン8と呼び、外部からの音声を検出するマイクロホンを上述と同様に外部用マイクロホン11と呼び、双方を総称するときには単にマイクロホン21と呼ぶ。
 【0028】
 上記代用発声法としては、例えば人工喉頭(電気式、笛式)、食道発声及び種々の音声再建術を実現するための機構である。
 【0029】
 上記信号処理部22は、マイクロホン21からの音声信号を用いて音声認識処理を行う。この信号処理部22は、例えば内部に備えられたメモリに格納した音声認識処理を行うためのプログラムに従った処理を行うことにより音声認識処理を実行する。具体的には、この信号処理部22は、使用者の音声をサンプリングして生成し記憶部24に格納された音声データを参照し、マイクロホン21からの音声信号を言語として認識する処理を行う。この結果、この信号処理部22は、マイクロホン21からの音声信号に応じて認識結果を生成する。
 【0030】
この信号処理部22は、例えば認識対象音声による分類と対象話者による分類の音声認識処理があり、認識対象音声による分類の音声認識処理では単語音声認識(isolated word recognition)と連続音声認識(continuous speech recognition)がある。また、音声情報生成部23は、連続単語音声認識には連続単語音声認識(continuous word recognition)と文音声認識(sentence speech recognition)、会話音声認識(conversational speech recognition)、音声理解(speech understanding)がある。また対象話者による分類では不特定話者型(speaker independent)、特定話者型(speaker dependent)、話者適応型(speaker adaptive)等がある。この信号処理部22が行う音声認識手法としては、ダイナミックプログラミング(Dynamic Programming)マッチングによるもの、音声の特徴によるもの、隠れマルコフモデル(HMM)によるものがある。
 【0031】
また、信号処理部22は、入力した音声を用いて話者認識を行う。このとき、信号処理部22は、使用者の話者からの音声の特徴を抽出する処理や音声の周波数特性を用いて話者認識結果を生成して音声情報生成部23に出力する。また、信号処理部22は、話者による変動が小さな特徴量を用いる方法、マルチテンプレート法、統計的手法を用いて不特定話者認識を行う。また、話者適応には、個人差の正規化法、話者間の音声データの対応関係によるもの、モデルパラメータの更新によるもの、話者選択によるものがある。この信号処理部22では、以上の音声認識を使用者の身体状態、利用状態及び使用目的に応じて行う。
 【0032】
ここで、使用者の身体状態とは使用者の難聴や言語障害の程度等を意味し、利用状態とは使用者が補聴器1を使用する環境(室内、野外、騒音下)等を意味し、使用目的とは使用者が補聴器1を利用するときの目的、すなわち認識の向上させることや、使用者が理解しやすいようにすること等であって、例えば普段話す人と対話することや、不特定多数の人と対話することや、音楽(オペラ、演歌)を観覧することや、講演を聴くことや、言語障害者と対話することである。
 【0033】
また、この信号処理部22は、マイクロホン21に入力した音声を記憶し、学習する機能を有する。具体的には、信号処理部22は、マイクロホン21で検出した音声の波形データを保持しておき、後の音声認識処理に用いる。これにより、信号処理部22は、更に音声認識を向上させる。更に、この信号処理部22は、学習機能を備えることで出力する結果を正確にすることができる。
 【0034】
 上記記憶部24には、上記信号処理部22が入力された音声を認識するときに、入力された音声を検出することで生成した音声波形と比較される音声モデルを示すデータが格納されている。また、記憶部24には、例えば喉頭摘出前に発声した声帯振動による発声機構を持つ使用者の音声や、出力することを希望する音声を予めサンプリングして得たデータが音声データとして格納されている。
 【0035】
 音声情報生成部23は、信号処理部22からの認識結果及び記憶部24に格納された使用者の音声を示す音声データを用いて、音声情報を生成する。このとき音声情報生成部23は、認識結果に応じて、記憶部24に格納された音声データを組み合わせるとともに、認識結果を加工変換して音声情報を生成する。このとき、音声情報生成部23は、内蔵したCPU、音声情報生成プログラムを用いて音声情報を生成する。
 【0036】
また、この音声情報生成部23は、認識結果を用いて音声から音声分析し、当該音声分析した音声の内容に応じて、音声データを再構成するという処理を行うことで、音声を示す音声情報を生成する。そして、音声情報生成部23は、生成した音声情報をスピーカ部25及び表示部26に出力する。
 【0037】
 更に、音声情報生成部23は、信号処理部22からの認識結果を、使用者の身体状態、利用状態及び使用目的に応じて加工、変換、合成等をして音声情報を生成する処理を行う。更に、この音声情報生成部23は、マイクロホン21で検出された音声を使用者に提示するための処理を認識結果及び/又は加工等をして得た認識結果について行う。
 【0038】
 更にまた、音声情報生成部23は、認識結果から生成した音声情報を修飾して新たな音声情報を生成しても良い。このとき、音声情報生成部23は、使用者の身体状態、利用状態及び使用目的に基づいて、更に使用者が理解し易い言葉を付け加えることで、使用者の音声の認識を更に向上させる。
 【0039】
 更にまた、この音声情報生成部23は、音声情報を表示部26に出力するときに音声の意味内容を画像として表示部26に出力する。音声情報生成部23は、例えば使用者又は使用者の話者及び外部からの音声が入力されて信号処理部22からの認識結果として物体を示す認識結果が入力されたときには、当該物体を示す画像データを表示部26に出力して表示させる処理を行う。
 【0040】
 更にまた、この音声情報生成部23は、信号処理部22からの認識結果に応じて、以前にスピーカ部25又は表示部26に出力した音声情報を再度出力する。音声情報生成部23は、音声情報を出力した後に、使用者又は使用者に対する話者がもう一度聞き直したいことに応じて発した音声を示す認識結果が入力されたと判定したときには、スピーカ部25又は表示部26に出力した音声情報を再度出力する処理を行う。また、音声情報生成部23は、例えば使用者の話者からの音声の特徴を抽出する処理や音声の周波数特性を用いた話者認識結果に基づいて、以前にスピーカ部25又は表示部26に出力した音声情報を再度出力しても良い。更に、音声情報生成部23は、人工知能の機能を用いて音声対話を行うことで、スピーカ部25又は表示部26に出力した音声情報を再度出力しても良い。
 【0041】
 更にまた、音声情報生成部23は、再度出力する処理を行うか否かを操作入力部28からの操作入力命令に応じて切り換えても良い。すなわち、使用者が再度出力する処理を行うか否かの切換を操作入力部28を操作することで決定し、操作入力部28をスイッチとして用いる。
 【0042】
また、この音声情報生成部23は、再度音声情報を出力するとき、以前に出力した音声情報を再度出力するか、以前に出力した音声情報とは異なる音声情報を出力するかを、信号処理部22を介して入力される操作入力部28からの操作入力信号に応じて選択する。
 【0043】
 表示部26は、上記音声情報生成部23で生成した音声情報が示す音声、カメラ機構29で撮像した画像等を表示する。
 【0044】
 操作入力部28は、スイッチ、キーボード、マウス等でも良く、使用者に操作されることで、操作入力信号を生成する。
 【0045】
このような補聴器1は、マイクロホン21で検出した音声について信号処理部22で音声認識処理をして、認識結果に基づいて音声情報生成部23でプログラムを起動することで使用者に応じた処理を行うことができる。これにより、補聴器1は、スピーカ部25にマイクロホン21からの音声を出力するとともに、表示部26に表示するので、音声に対する使用者の認識を向上させることができる。視覚聴覚同時に矛盾する音韻情報を提示した場合にいずれの情報とも異なった音韻に異聴が生ずるというMuGurk効果(MuGurk H and MacDonald J: Hearing lips and seeing voice,Nature 264,746-8,1976参照)や、乳児がすでに聴覚からの音声情報と視覚からの口形の情報との対応関係を獲得しているとの報告(Kuhl PK et al. Human processing of auditory-visual information in speech perception. ICSLP’94 S11.4,Yokohama,1994)や視覚が音源方向の知覚に影響を与える(腹話術効果)、及び人間は無意識のうちに音源かどうかを学習し、区別するなどの報告は人間のコミュニケーションが本来マルチモーダルなものであるとする仮説を支持するものである(Saitou H and Mori T:視覚認知と聴覚認知Ohmsha,119-20,1999参照)。以上のことは、視覚が聴覚に影響を及ぼしていることを意味し、表示部26に認識結果等を表示することで音声情報を補足し、音声に対する使用者の認識を向上させる。この補聴器1では、音声のみならず、表示部26に表示する画像を通じて話者に音声の意味内容を伝達し、対話することができる。
 【0046】
 更に、この補聴器1によれば、使用者用マイクロホン8及び/又は外部用マイクロホン11で検出した音声を認識した結果に応じて表示部26に表示する音声の意味内容及びスピーカ部25から出力する音声の内容を変更させることができるので、更に音声に対する使用者の認識を向上させることができる。従って、この補聴器1によれば、音声情報生成部23により音声認識処理を変更するプログラムを実行することにより、身体状態(難聴の程度等)、利用状態及び使用目的に応じて認識処理を変更することで、使用者が理解しやすい音声の意味的な情報を表示することで更に認識を向上させることができる。
 【0047】
スピーカ部25は、上記音声情報生成部23で生成した音声を出力する。このスピーカ部25としては、例えば使用者から話し手に対して音声を出力するものであっても良く、更には、使用者が発した音声を使用者の耳に対して発声するように音声を出力するものであっても良い。また、使用者の耳に対して発声するように音声を出力するスピーカ部25は、スピーカユニットの変換方式としてダイナミック型や静電型(コンデンサ型、エレクトロスタティック型)によるものでも良く、形状としてはヘッドフォン(オープンエア型、クローズド型、カナルタイプ等のイン・ザ・イヤー型等)によるものでも良い。また、スピーカ部25は、従来の補聴器、拡声器、集音器のスピーカによるものでも良く、使用者から話者に対して音声を出力するスピーカ部25は従来から用いられているスピーカ装置でよい。
 【0048】
また、スピーカ部25は、音声情報に基づいて出力する音声と逆位相の音を出力するようにしても良い。これにより、スピーカ部25から出力する音声に含まれる雑音成分を除去し、使用者及び/又は使用者に対する話者に雑音の少ない音声を出力する。
 【0049】
また、この補聴器1は、外部の通信ネットワークと接続された通信回路27を備えている。この通信回路27は、電話、携帯電話、インターネットや無線、衛星通信等の通信ネットワークを介して例えば音声言語障害を有する者から発せられた音声が入力される。この通信回路27は、外部からの音声や音声を示すデータを信号処理部22に入力する。また、この通信回路27は、音声情報生成部23で生成した音声情報を外部のネットワークに出力する。
 【0050】
また、この通信回路27は、信号処理部22、音声情報生成部23を介して文字放送、文字ラジオを表示部26で表示させても良い。このとき、通信回路27は、文字放送等を受信するためのチューナ機能を備え、使用者の所望のデータを受信する。
 【0051】
このように構成された補聴器1は、例えば喉頭摘出後に電気式人工喉頭を使って発声された音声がマイクロホン21に入力された場合であっても、信号処理部22で音声認識し、記憶部24に格納された喉頭摘出前にサンプリングした音声を示す音声データを用いて音声情報生成部23で出力する音声を示す音声情報を生成するので、スピーカ部25から喉頭摘出前の使用者の音声に近似した音声を出力することができる。
 【0052】
なお、上述した本発明を適用した補聴器1の説明においては、マイクロホン21で検出される喉頭摘出した人の音声である一例について説明したが、聴力障害による言語障害の一つである構音障害(articulation disorders)を持つ者からの音声を検出したときであっても良い。このとき、補聴器1は、言語障害の音声を音声データとして記憶部24に記憶しておき、当該発声者が発声したことに応じて記憶部24に格納された発声者の音声を示す音声データを参照して信号処理部22で音声認識処理を行い、音声情報生成部23で認識結果に応じて音声データを組み合わせることで音声情報を生成する処理を行うことにより、スピーカ部25から音声言語障害のない音声を出力するとともに、表示部26により音声情報に基づいた音声内容を表示することができる。
 【0053】
したがってこの補聴器1によれば、例えば喉頭摘出者が代用発声法により発生した音声を表示部26に表示することで不自然な音声を訂正させることができる。
 【0054】
 更に、補聴器1は、例えば聴力障害による構音障害を持つ者は発声のためのフィードバックが得られず、「きょうは(今日は)」という音声が「きょんわあ」となってしまうのを上述した処理を行うことにより正常な「きょうは(今日は)」という音声に訂正してスピーカ部25から出力することができる。
 【0055】
 更に、この補聴器1は、表示部26を備えているので、発声者の音声をスピーカ部25から正常な音声にして出力するとともに、発声者の音声内容を表示することにより音声障害者や難聴者の言語訓練学習にとって好適なシステムを提供することができる。
 【0056】 つぎに、上述の音声情報生成部23が信号処理部22からの認識結果を加工、変換して音声情報を生成する処理、音声データを組み合わせる処理で適用することができる種々の例について述べる。なお、変換処理等の種々の例は、以下に述べる例に限定するものではない。
 【0057】
 音声情報生成部23は、信号処理部22からの認識結果を変換するとき、人工知能技術を用いて認識結果を加工変換して音声情報を生成しても良い。音声情報生成部23は、例えば音声対話システムを用いる。ここで、特に聴力の低下した老人は相手話者の言ったことを再度聞き直すことがあるが、このシステムを用いて認識結果を加工変換することにより、補聴器1と使用者とが対話して以前に記憶した相手話者の言ったことの情報を得て、使用者の音声認識を向上させることができ、聞き直す手間を省略することができる。
 【0058】
このようなシステムは、マルチモーダル対話システムである表情つき音声対話システムを用いることで実現可能である。このマルチモーダル対話システムでは、ポインティングデバイスとタブレットを利用する入力技術である直接操作・ペンジェスチャ技術、テキスト入力技術、音声認識等の音声入出力技術、人間の視覚、聴覚、触覚、力覚を利用した仮想現実感技術、ノンバーバルモダリティ技術の技術要素をモダリティとし組み合わせて用いる。このとき、音声情報生成部23は、言語情報を補足する手段、対話の文脈情報(或いはその補足手段)、使用者の認知的負担或いは心理的抵抗感を軽減する手段として各モダリティを用いる。なお、ノンバーバルインターフェースとして身振り(gesture)インターフェースを用いてもよい。その場合ジェスチャーインターフェースの計測として装着型センサによる身振り計測には身振りトラッキングが必要であり手袋型デバイス、磁気や光学的位置計測を用い、身振りの非接触計測にはマーカを立体解析したりする映像や3D再構成によるものを用いてもよい。
 【0059】
なお、このマルチモーダル対話システムの詳細は文献「Nagao K and Takeuchi A,Speech dialogue with facial displays: Multimodal human-computer conversation.Proc.32nd Ann Meeting of the Association for Computational Linguistics,102-9,Morgan Kaufmann Publishers,1994及びTakeuchi A and Nagao K,Communicative facial displays as a new conversational modality.Proc ACM/IFIP Conf on Human Factors in Computing Systems(INTERCHI’93),187-93, ACM Press,1993」に記載されている。
 【0060】
このような人工知能機能を用いた音声対話システムとしては、マイクホン21で検出した音声を、信号処理部22でA/D変換、音響分析、ベクトル量子化の後、音声認識モジュールによって、上位スコアをもつ単語レベルの最良仮説を生成するシステムが使用可能である。ここで、音声情報生成部23は、隠れマルコフモデル(HMM)に基づく音韻モデルを用いて、ベクトル量子コードから音素を推定し、単語列を生成する。音声情報生成部23は、生成した単語列を、構文・意味解析モジュールにより意味表現に変換する。このとき、音声情報生成部23は、単一化文法を用いて構文解析を行い、次にフレーム型知識ベースと事例ベース(例文を解析して得られた文パターン)を用いて曖昧さの解消を行う。発話の意味内容の決定後、プラン認識モジュールにより使用者の意図を認識する。これは対話の進行に従い動的に修正・拡張されていく使用者の信念モデルと対話のゴールに関するプランに基づいている。意図を認識する課程で、主題の管理や、代名詞の照応解消、省略の補完などを行う。そして使用者の意図に基づいて協調的な応答を生成するモジュールが起動する。このモジュールはあらかじめ用意されたテンプレートの発話パターンに領域知識により得られた応答に関する情報を埋め込むことにより発話を生成する。この応答は音声合成モジュールにより音声となる。なお、この信号処理部22及び音声情報生成部23が行う処理としては、例えば文献(Nagao N,A preferential constraint satisfaction technique for natural language analysis. Proc 10th European Conf on Artificial Intelligence ,523-7,John Wiley&Sons,1992)、(Tanaka H,Natural language processing and its applications,330-5,1999,電子情報通信学会編 コロナ社)、(Nagao K, Abduction and dynamic preference in plan-based dialogue understanding.Proc 13th Int joint Conf on Artificial Intelligence,1186-92,Morgan Kaufmann Publishers,1993)に記載された処理を行うことでも実現可能である。
 【0061】
また、音声情報生成部23は、人工知能機能を用いて行う処理として、システムの擬人化を行い、音声認識、構文・意味解析、プラン認識より表情パラメータ調節、表情アニメーションを表示部26を用いて行うことにより、視覚的手段を用いて音声対話に対して使用者の認知的負担、心理的抵抗感を軽減する。なお、この音声情報生成部23が行う処理としては、FACS(Facial Action Coding System;Ekman P and Friesen WV, Facial Action Coding System.Consulting Psychologists Press Palo Alto,Calif,1978)に記載された処理を行うことができる。
 【0062】
 更にまた、音声情報生成部23は、音声対話コンピュータシステム(参照Nakano M et al,柔軟な話者交代を行う音声対話システムDUG-1,言語処理学会第5回年次大会論文集,161-4,1999)としては話し言葉を理解する逐次理解方式(Incremental Utterance Understanding:Nakano M, Understanding unsegmented user utterances in real-time spoken dialogue systems.Proc of the 37th Ann meeting of the association for computational linguistics,200-7)と内容の逐次変更が可能な逐次生成方式(Incremental Utterance Production:Dohsaka K and Shimazu A,A computational model of incremental utterance production in task-oriented dialogues. Proc of the 16th Int Conf on Computational Linguistics, 304-9, 1996. 及びDohsaka K and Shimazu A,System architecture for spoken utterance production in collaborative dialogue. Working Notes of IJCAI 1997 Workshop on Collaboration, Cooperation and Conflict in Dialogue Systems, 1997及び Dohsaka K et al,複数の対話ドメインにおける協調的対話原則の分析、電子情報通信学会技術研究報告NLC-97-58,25-32,1998)による音声と画像を用いる人工知能システムである。ここで、音声情報生成部23は、理解と応答のプロセスが平行動作する。また、音声情報生成部23は、ISTARプロトコール(参照Hirasawa J,Implementation of coordinative nodding behavior on spoken dialogue systems, ICSLP-98,2347-50,1998)を用いて音声認識と同時に単語候補を言語処理部に逐次的に送る。
 【0063】
すなわち、音声対話システムDUG-1で用いている技術を用いることにより、補聴器1では、例えば所定のデータ量(文節)ごとに使用者及び/又外部からの音声を音声認識するとともに、音声情報を生成する処理を行う。音声情報生成部23では、使用者及び/又は外部からの音声に応じて、音声認識処理、音声情報認識処理を随時中止、開始することができ、効率的な処理を行うことができる。更に、この補聴器1では、使用者の音声に応じて、音声認識処理、音声情報生成処理を制御することができるので、柔軟に話者の交替を実現することができる。すなわち、音声情報を生成している最中に使用者及び/又は外部からの音声を検出することで処理を変更し、使用者に提示する音声情報の内容を変更等の処理を行うことができる。
 【0064】
 更にまた、音声情報生成部23は、キーワードスポティングを用いて使用者の自由な発話を理解する処理を行っても良い(Takabayashi Y,音声自由対話システム TOSBURG II ?使用者中心のマルチモーダルインターフェースの実現に向けて?.信学論 vol J77-D-II No.8 1417-28,1994)。
 【0065】
この音声情報生成部23は、例えばアクセント等の処理を行うように変換処理を行って音声情報を出力しても良い。このとき、音声情報生成部23は、必要に応じて、特定の発音についてはアクセントの強弱を変化させるように音声情報を変換して出力するようにする。
 【0066】
 音声情報生成部23は、音声データを合成するとき、どのような内容の音声でも合成するときには規則による音声合成、滑らかな音声を合成するために可変長単位を用いた音声合成、自然な音声を合成するための韻律制御、また音声の個人性付与のために音質変換を行って音声情報を生成しても良い。これは、例えば書籍「”自動翻訳電話” ATR国際電気通信基礎技術研究所編 pp.177-209, 1994オーム社」に記載されている技術を適用することにより実現可能である。
 【0067】
また、ボコーダ(vocoder)処理を用いても高品質の音声を合成することが可能である。例えば音声分析変換合成法STRAIGHT(speech transformation and representation based on adaptive interpolation of weighted spectrogram)等を施すことで実現可能である(文献「Maeda N et al,Voice Conversion with STRAIGHT. TECHNICAL REPORT OF IEICE, EA98-9,31-6, 1998」参照)。
 【0068】
 更に、この音声情報生成部23は、文字情報から音声を作り出す音声合成(text to speech synthesis)技術を用いることにより話の内容に関する情報(音韻性情報)や音の高さや大きさに関する情報(韻律情報)を聴力障害者の難聴の特性に合わせてその人の最も聞き易い音の高さに調整することも可能であり、他に話速変換技術(voice speed converting)、周波数圧縮(frequency compress)処理などの音声特徴量の変換処理を行う。また出力する音声の帯域を調整する帯域拡張(frequency band expansion)処理や、音声強調(speech enhancement)処理等を音声情報に施す。帯域拡張処理、音声強調処理としては、例えば「Abe M, “Speech Modification Methods for Fundamental Frequency, Duration and Speaker Individuality,” TECHNICAL REPORT OF IEICE, SP93-137,69-75, 1994」にて示されている技術を用いることで実現可能である。なお、上述したように、信号処理部22及び音声情報生成部23で音声認識処理をして認識結果を加工変換する場合のみならず、上記処理のみを行ってスピーカ部25に出力しても良い。また、この補聴器1では、認識結果及び/又は上記処理のみを行った結果を同時に又は時間差を付けて出力しても良い。また、この補聴器1では、認識結果及び/又は上記処理のみを行った結果をスピーカ部25又は表示部26の右チャンネルと左チャンネルとで異なる内容を出力しても良い。
 【0069】
 更にまた、上記音声情報生成部23は、認識結果を用いて音声から言語を理解し、当該理解した言語を用いて音声データから音声情報を構成するという処理を行うのみならず、他の処理を認識結果に基づいて理解した言語を必要に応じて加工変換する処理を行っても良い。すなわち、この音声情報生成部23は、音声情報を構成するとともに、音声情報としてスピーカ部25に出力するときの速度を変化させる話速変換処理を行っても良い。すなわち、この話速変換処理は、使用者の状態に応じて適当な話速を選択することによりなされる。
 【0070】
 更にまた、この音声情報生成部23は、認識結果に応じて、例えば日本語の音声情報を英語の音声情報に変換して出力するような翻訳処理を行って出力しても良く、通信機能と合わせて自動翻訳電話にも応用可能である。更には音声情報生成部23は自動要約(automatic abstracting)を行い、「United States of America」を「USA」と要約するように変換して音声情報を出力しても良い。
 【0071】
 音声情報生成部23が行う他の自動要約処理としては、例えば文章内から要約に役立ちそうな手がかり表現を拾い出し、それらをもとに読解可能な文表現を生成する生成派の処理(文献「McKeown K and Radev DR,Generating Summaries ofMultiple News Articles. In Proc of 18th Ann Int ACM SIGIR Conf on Res and Development in Information Retrieval,74-82, 1995 及び Hovy E,Automated Discourse Generation using Discourse Structure Relations, Artificial Intelligence, 63, 341-85, 1993」参照)、要約を「切り抜き」と考えて処理し客観的評価が可能となるように問題を設定しようという立場の抽出派の処理(文献「Kupiec J et al,A Trainable Document Summarizer, In Proc of 14th AnnInt ACM SIGIR Conf on Res and Development in Information Retrieval, 68-73, 1995」、及び「Miike S, et al, A Full-text Retrieval System with a Dynamic Abstruct Generation Function.Proc of 17th Ann Int ACM SIGIR Conference on Res and Development in Information Retrieval,152-9, 1994」及び「Edmundson HP,New Method in Automatic Extracting. J of the ACM, 16,264-85, 1969」参照)がある。更に、この音声情報生成部23は、例えば文献「Nakazawa M, et al.Text summary generation system from spontaneous speech,日本音響学会講演論文集 1-6-1,1-2, 1998」に記載されている手法(Partial Matching MethodとIncremental Reference Interval-Free連続DPを用いて重要キーワードの抽出を行い、Incremental Path Methodを用いて単語認識を行う)を用いることが可能である。
 【0072】
 更にまた、この音声情報生成部23は、認識結果に応じて、特定の音素、母音、子音、アクセント等において、消去したり、音声を出力することに代えてブザー音、あくび音、せき音、単調な音等を音声情報とともに出力するように制御しても良い。このとき、音声情報生成部23は、例えば文献「Warren RM andPerceptual Restoration of Missing Speech Sounds, Science vol.167 ,392-393, 1970」や文献「Warren RM,Obusek CJ, “Speech perception and phonemic restoration,” Perception and psychophysics vol.9 ,358-362, 1971」に記載されている手法を実現した処理を音声情報について行う。
 【0073】
 更にまた、音声情報生成部23は、認識結果を用いてホーン調となるように音質を変換させて音声情報を出力しても良い。上記ホーン調とは、集音管を使ったもので、約2000Hz以下の帯域の音声を増幅させて、利得を約15dB程度とすることである。すなわち、このホーン調とは、管共鳴を用いた重低音を再生する技術により出力される音質である。この音声情報生成部23は、例えばUS PATENT 4628528により公知となされいているアコースティックウェーブ・ガイド(acoustic wave guide)技術を用いて出力される音質に近似した音に変換して音声情報を出力する。ここで、音声情報生成部23は、例えば低音のみを通過させるフィルター処理を行って音声情報を出力する処理を行っても良く、例えばSUVAG(Systeme Universel Verbo-tonal d’Audition-Guberina)機器を用いることにより、所定の周波数帯域の音声のみを通過させる種々のフィルタ処理を行って音声情報を出力する処理を行っても良い。
 【0074】
 更にまた、この音声情報生成部23は、例えばマイクロホン21に音楽が入力されたと判断したときには、音声情報を変換して表示部26に音符や色を表示するように処理を行っても良い。また、この音声情報生成部23は、音声のリズムなどが分かるために変換した音声のリズムを信号が点滅するように音声情報を変換して表示部26に表示しても良い。
 【0075】
 更にまた、この音声情報生成部23は、例えば警報等の発信音がマイクロホン21に入力されたと判断したときには、音声情報を変換することで表示部26に警報等がマイクロホン21で検出された旨の表示を行ったり、スピーカ部25に警報の内容を知らせるような内容を出力しても良く、例えば救急車や非常ベルのサイレンを聞いたら表示するだけでなく大音量で「救急車ですよ」や「火事ですよ」とスピーカ部25から出力するとともに、表示部26に救急車や火事を示す画像を表示することで難聴者に非常事態を伝えることができ、最悪の事態を避けることができる。
 【0076】
 更にまた、音声情報生成部23は、過去に行った変換合成処理について記憶する機能を備えていても良い。これにより、音声情報生成部23は、過去に行った変換合成処理の改良を自動的に行う学習処理を行うことができ、変換合成処理の処理効率を向上させることができる。
 【0077】
 更にまた、この信号処理部22及び音声情報生成部23は、話し手の音声のみについての認識結果を生成して音声情報を生成し、スピーカ部25及び/又はディスプレイ部7に提示することで使用者に知らせる一例のみならず、例えば特定の雑音に対してのみ音声認識を行っても良い。要するに、信号処理部22及び音声情報生成部23は、入力した音について音声認識処理を行って、認識結果を使用者の身体状態、利用状態及び使用目的に応じて変換することで使用者が理解し易い表現で音声情報を生成して出力する処理を行う。
 【0078】
 更にまた、上述した本発明を適用した補聴器1の説明おいては、記憶部24に予めサンプリングして格納した音声データを音声情報生成部23により組み合わせることにより音声情報を生成して出力するものの一例について説明したが、上記音声情報生成部23は、記憶部24に記憶された音声データを組み合わせて音声情報を生成するときに格納された音声データに変換処理を施す音声データ変換部を備えていても良い。このような音声データ変換部を備えた補聴器1は、例えばスピーカ部25から出力する音声の音質を変化させることができる。
 【0079】
 更にまた、上述した本発明を適用した補聴器1の説明おいては、例えば喉頭摘出前の使用者の音声を予めサンプリングすることにより得た音声データを記憶部24に格納するものの一例について説明したが、記憶部24には、一つの音声データのみならず複数の音声データを予めサンプリングして格納しても良い。すなわち記憶部24には、例えば喉頭摘出前に発せられた音声を予めサンプリングした音声データ、及び前記喉頭摘出前に発せられた音声に近似した音声データを格納しても良く、更には全く異なる音質の音声データを格納しても良く、更にまた、喉頭摘出前の音声データを生成し易い音声データを格納しても良い。このように複数の音声データが記憶部24に格納されているとき、音声情報生成部23は、各音声データの関係を例えば関係式等を用いて関連づけを行って選択的に音声データを用いて音声情報を生成しても良い。
 【0080】
また、上述の補聴器1は、サンプリングして記憶部24に格納した音声データを合成することで音声情報を生成して出力する一例について説明したが、記憶部24に記憶されている音声データを合成することで生成した音声情報に、音声情報生成部23によりボコーダ処理を施すことにより、サンプリングして記憶されている音声データが示す音声とは異なる音質の音声に変換して出力しても良い。このとき、音声情報生成部23は、ボコーダ処理を用いた例としてSTRAIGHTを施す。
 【0081】
 更にまた、信号処理部22は、話者認識(speaker recognition)処理を入力される音声について行って各話者に対応した認識結果を生成しても良い。そして、この信号処理部22では、各話者に関する情報を認識結果とともにスピーカ部25や表示部26に出力することで使用者に提示しても良い。
 【0082】
 補聴器1で話者認識を行うときには、ベクトル量子化(文献Soong FK and Rosenberg AE,On the use of instantaneous and transitional spectral information in speaker recognition.Proc of ICASSP’86,877-80,1986)によるものでも良い。このベクトル量子化を利用した話者認識では、準備段階の処理として登録話者用の学習用音声データからスペクトルの特徴を表すパラメータを抽出して、これらをクラスタリングすることによりコードブックを作成する。ベクトル量子化による方法は話者の特徴が作成された符号帳に反映されていると考える手法である。認識時には入力された音声と全ての登録話者のコードブックを用いてベクトル量子化を行い、入力音声全体に対して量子化ひずみ(スペクトルの誤差)を計算する。この結果を用いて話者の識別や照合の判定を行う。
 【0083】
また、補聴器1で話者認識を行うときには、HMM (文献Zheng YC and Yuan BZ,Text-dependent speaker identification using circular hidden Markov models.Proc of ICASSP’88,580-2,1988)よる方法であっても良い。この方法では、準備段階の処理として登録話者の学習用音声データからHMMを作成する。HMMを用いる方法では話者の特徴は状態間の遷移確率とシンボルの出力確率に反映されると考える。話者認識の段階では入力音声を用いて全ての登録話者のHMMによる尤度を計算して判定を行う。HMMの構造としてleft~to~rightモデルに対してエルゴティックなHMMを用いてもよい。
 【0084】
 更にまた、補聴器1では、ATR-MATRIX system(ATR音声翻訳通信研究所製:参照 Takezawa T et al, ATR-MATRIX: A spontaneous speech translation system between English and Japanese. ATR J2,29-33,June1999)で用いられている音声認識(ATRSPREC)、音声合成(CHATR)、言語翻訳(TDMT)を行うことで、マイクロホン21で入力した音声を翻訳して出力することができる。
 【0085】
 上記音声認識(ATRSPREC)では、大語彙連続音声認識を行い、音声認識ツールを用いて音声認識に必要な音響モデルと言語モデルの構築、及び信号処理から探索までの工程を処理する。この音声認識では、行った処理をツール群として完結し、ツール同士の組み合わせることができる。また、この音声認識を行うとき、不特定話者の音声認識を行っても良い。
 【0086】
 上記音声合成(CHATR)では、あらかじめデータベース化された多量の音声単位から、出力したい文に最も適した単位を選択してつなぎあわせ、音声を合成する。このため、滑らかな音声が出力することができる。この音声合成では、話し手の声に最も近い音声データを用いて話し手の声に似た声で合成することができる。また、この音声合成を行うときには、音声情報生成部23は、入力された音声から話し手が男性か女性かを判断し、それに応じた声で音声合成を行っても良い。
 【0087】
 上記言語翻訳(TDMT)では、文の構造を判断する処理、対話用例を用いた対話特有のくだけた表現などの多様な表現を扱って言語翻訳を行う。また、この言語翻訳では、マイクロホン21が一部聞き取れなかった部分があっても、翻訳できる部分はなるべく翻訳する部分翻訳処理を行い、一文全体を正確に翻訳できない場合でも、話し手が伝えたい内容をかなりの程度相手に伝える。
 【0088】
また、上記音声認識、音声合成、言語翻訳を行うときには、通信回路27を介して携帯電話等の通信機器と接続して双方向の対話可能である。
 【0089】
 上記音声認識、音声合成、言語翻訳を行う補聴器1では、例えば日英双方向の音声翻訳システムの利用、ほぼリアルタイムの認識、翻訳、合成、話し始めの指示をシステムに与える必要がなく、全二重の対話が可能自然な発話に対する、質の高い認識、翻訳、合成「あのー」、「えーと」といった言葉や、多少くだけた表現があっても認識が可能 となる。
 【0090】
 更にまた、音声情報生成部23は、上記音声認識(ATRSPREC)において、信号処理部22からの認識結果に基づいて文の構造を判断するだけでなく、対話用例を用いることにより、対話特有のくだけた表現などの多様な表現に対応した音声情報を生成する。また、音声情報生成部23は、マイクロホン21で会話中の一部が聞き取れなかった部分があっても、音声情報を生成することができる部分はなるべく音声情報を生成する。これにより、音声情報生成部23は、一文全体の音声情報を正確に生成できない場合でも、話し手が伝えたい内容をかなりの程度相手に伝える。このとき、音声情報生成部23は、翻訳処理(部分翻訳機能)を行って音声情報を生成しても良い。
 【0091】
また、音声情報生成部23は、上記音声合成(CHATR)において、予めデータベース化して記憶された多量の音声単位の音声データから、出力したい文に最も適した単位を選択してつなぎあわせ、音声を合成して音声情報を生成する。これにより、音声情報生成部23は、滑らかな音声を出力するための音声情報を生成する。また、音声情報生成部23は、話し手の声に最も近い音声データを用いて話し手の声に似た声で合成処理を行っても良く、入力された音声から話し手が男性か女性かを判断し、それに応じた声で音声合成を行って音声情報を生成しても良い。
 【0092】
 更にまた、音声情報生成部23は、マイクロホン21からの音声から、特定の音源の音のみを抽出してスピーカ部25及び/又は表示部26に出力しても良い。これにより、補聴器1は、複数の音源から到来する音の混合の中から、特定の音源の音のみを抽出して聞くことができるカクテルパーティ現象を人工的に作ることができる。
 【0093】
 更にまた、音声情報生成部23は、音韻的に近い例を用いて誤りを含んだ認識結果を訂正する手法を用いて聞き間違いを修正して音声情報を生成しても良い(文献Ishikawa K, Sumida E: A computer recovering its own misheard-Guessing the original sentence form a recognition result based on familiar expressions- ATR J 37,10-11,1999)。このとき、音声情報生成部23は、使用者の身体状態、利用状態及び使用目的応じて処理を行って、使用者にとってわかりやすい形態に加工変換する。
 【0094】
なお、上述した補聴器1の説明においては、マイクロホン21で検出した音声について音声認識処理、音声生成処理を行う一例について説明したが、使用者等により操作される操作入力部28を備え当該操作入力部28に入力されたデータを音声及び/又は画像とするように信号処理部22により変換しても良い。また、この操作入力部28は、例えば使用者の指に装着され、指の動きを検出することでデータを生成して信号処理部22に出力するものであっても良い。
 【0095】
また、この補聴器1は、例えば使用者が液晶画面等をペンにより接触させることで文字及び/又は画像を描き、その軌跡を取り込むことによる画像に基づいて文字及び/又は画像データを生成する文字及び/又は画像データ生成機構を備えていても良い。補聴器1は、生成した文字及び/又は画像データを信号処理部22及び音声情報生成部23により認識・変換等の処理を行って出力する。
 【0096】
 更に、上述の補聴器1は、マイクロホン21等からの音声を用いて信号処理部22により音声認識処理を行う一例に限らず、例えば使用者及び/又は使用者以外の人が装着する鼻音センサ、呼気流センサ、頸部振動センサからの検出信号及びマイクロホン21等からの信号を用いて音声認識処理を行っても良い。このように、補聴器1は、マイクロホン21のみならず上記各センサを用いることにより、信号処理部22による認識率を更に向上させることができる。
 【0097】
 更に、この補聴器1は、例えば自動焦点機能やズーム機能を搭載したデジタルカメラにより動画像や静止画像等を撮像するカメラ機構29を図2に示すように備え、表示部26に表示するものであっても良い。このカメラ機構29は例えば図1のディスプレイ部7と一体に搭載されても良い。また、上記カメラ機構29としては、デジタルカメラを用いても良い。
 【0098】
また、この補聴器1に備えられたカメラ機構29は、撮像した画像を使用者の視力や乱視等の状態に合わせて歪ませたり拡大させたりする画像変換処理を施して表示部26に表示する眼鏡機能を備えていても良い。
 【0099】
このような補聴器1は、例えばカメラ機構29からCPU等からなる信号処理回路を経由して表示部26に撮像した画像を表示する。この補聴器1は、このようなカメラ機構29により例えば話者を撮像した画像を使用者に提示することで、使用者の認識を向上させる。また、この補聴器1は、撮像した画像を通信回路27を介して外部のネットワークに出力しても良く、更には外部のネットワークからカメラ機構29で撮像した画像を入力して通信回路27及び信号処理回路等を介して表示部26に表示しても良い。
 【0100】
 更に、この補聴器1では、話者を撮像した画像を用いて信号処理部22で顔面認識処理、物体認識処理を行って音声情報生成部23を介して表示部26に表示しても良い。これにより、補聴器1では、撮像対象者の口唇、顔の表情、全体の雰囲気等を使用者に提示して、使用者の音声認識を向上させる。
 【0101】
 撮像機能を用いた顔の認識において顔の個人性特徴を抽出して個人認識をおこなうものとして、以下の方法があるがこれらに限られるものではない。
 【0102】
 濃淡画像のマッチングにより識別するための特徴表現の一つとしてパターンをモザイク化し、各ブロック内の画素の平均濃度をブロックの代表値とすることで濃淡画像を低次元ベクトルに情報圧縮して表現する方法でM特徴といわれている方法である。また、KI特徴という濃淡顔画像の特徴表現で、Karhunen-Loeve(KL)展開を顔画像の標本集合に適応して求められる直交基底画像を固有顔とよび、任意の顔画像をこの固有顔を用いて展開した係数から構成される低次元の特徴ベクトルで記述する方法である。更に、顔画像集合のKL展開による次元圧縮に基づくKI特徴によるもの照合パターンをまずフーリエスペクトルに変換しKI特徴の場合と同様に標本集合をKL展開することで次元圧縮を行って得られる低次元の特徴スペクトルであるKF特徴による識別を行う方法がある。以上の方法によるものが顔画像認識に用いることが可能であり、それらを用いて顔の認識を行うことは対話者が誰であるかという個人識別情報をコンピュータに与えることになり、使用者にとって対話者に対する情報が得られ、音声情報に対する認識が増す。なお、このような処理は、文献「小杉 信:“ニューラルネットを用いた顔画像の識別と特徴抽出”,情処学CV研報,73-2(1991-07)」、文献「Turk MA and Pentland AP,Face recognition using eigenface.Proc CVPR,586-91(1991-06)」、文献「Akamatsu S et al,Robust face intification by pattern matching Based on KL expansion of the Fourier Spectrum 信学論 vol J76-D-II No.7,1363-73,1993」、文献「Edwards GJ et al,Learning to identify and track faces in image seguences,Proc of FG ‘98,260-5,1998」に記載されている。
 【0103】
この補聴器1では、物体認識を行うときには、物体を示すパターンをモザイク化しておき、実際に撮像した画像とマッチングを取ることにより物体の識別を行う。そして、この補聴器1では、マッチングがとれた物体の動きベクトルを検出することで、物体の追尾を行う。これにより、物体から発せられる音声から生成される音声情報に対する認識が増す。この物体認識処理は、SonyCSLから提案されているUbiquitous Talker(文献Nagao K and Rekimoto J,Ubiquitous Talker:Spoken language interaction with real world objects. Proc 14th IJCAI-95,1284-90,Morgan Kaufmann Publishers,1995)で用いられてる技術を採用することができる。
 【0104】
 更に、この補聴器1は、静止画撮像用デジタルカメラのようにシャッターを押すことで静止画を撮像しても良い。更に、カメラ機構29は、動画像を生成して信号処理部22に出力しても良い。このカメラ機構29により動画像を撮像するときの信号方式としては、例えばMPEG(Moving Picture Experts Group)方式などを用いる。更にまた、この補聴器1に備えられるカメラ機構29は、3次元画像を撮像することで、話者や話者の口唇を撮像して表示部26に表示させることで更に使用者の認識を向上させることができる。
 【0105】
このような補聴器1は、使用者自身の発した音声や相手の発した音声等及び/又はその場の情景を撮像した画像を記録し再生することで、言語学習における復習することができ言語学習に役立てることができる。
 【0106】
また、この補聴器1によれば、画像を拡大処理等して表示部26に表示することで相手を確認し全体の雰囲気をつかめ音声聴取の正確さが向上し、更に読唇(lip reading)を行うことが可能となり認識を上昇させる。
 【0107】
 更にまた、この補聴器1は、例えばスイッチ機構が設けられており、マイクロホン21で検出した音声をスピーカ部25により出力するか、カメラ機構29により撮像した画等像を表示部26により出力するか、又は音声及び画像の双方を出力するかを使用者により制御可能としても良い。このときスイッチ機構は、使用者に操作されることで、音声情報生成部23から出力を制御する。
 【0108】
また例として、スイッチ機構は、使用者及び/又は使用者以外の音声を検出して、例えば「音声」という音声を検出したときにはマイクロホン21で検出した音声をスピーカ部25により出力するように切り換え、例えば「画像」という音声を検出したときにはカメラ機構29により撮像した画等像を表示部26により出力するように切り換え、「音声、画像」という音声を検出したときには音声及び画像の双方を出力するするように切り換えても良く、以上のような音声認識を用いたスイッチ制御機構を備えていても良い。また、ジェスチャーインターフェースを用いることで、ジェスチャー認識によるスイッチ制御システムとしても良い。
 【0109】
 更にまた、このスイッチ機構は、カメラ機構29のズーム状態等のパラメータを切り換えることでカメラ機構29で画像を撮像するときの状態を切り換える機能を備えていても良い。
 【0110】
つぎに、この補聴器1において、音声情報生成部23により作成した音声情報を出力する機構の種々の例について説明する。なお、本発明は、以下に説明する出力する機構に限られることはないことは勿論である。
 【0111】
すなわち、この補聴器1において、音声情報を出力する機構としてはスピーカ部25や表示部26に限らず、例えば骨導や皮膚刺激を利用したものであっても良い。この音声情報を出力する機構は、例えば小さな磁石を鼓膜等に装着し、磁石を振動させるものや、骨を通して信号を蝸牛に伝達するものであっても良い。
 【0112】
このような補聴器1は、例えば圧挺板を備え、音声情報生成部23により変換することにより得た信号を前記圧挺板に出力するようにしたものや、皮膚刺激を用いたタクタイルエイド(Tactile Aid)等の触覚による補償技術を利用したものであっても良く、これらの骨振動や皮膚刺激等を用いた技術を利用することで、音声情報生成部23からの信号を使用者に伝達することができる。皮膚刺激を利用した補聴器1においては、音声情報生成部23からの音声情報が入力されるタクタイルエイド用振動子アレイが備えられており、タクタイルエイドと当該振動子アレイを介してスピーカ部25から出力する音声を出力しても良い。
 【0113】
また、上述した補聴器1の説明においては、音声情報を音声として出力するときの処理の一例について説明したが、これに限らず、例えば人工中耳により使用者に認識結果を提示するものであっても良い。すなわち、この補聴器1は、音声情報を電気信号としてコイル、振動子を介して使用者に提示しても良い。
 【0114】
 更には、この補聴器1は、人工内耳機構を備え、人工内耳により使用者に認識結果を提示するものであっても良い。すなわち、この補聴器1は、例えば埋め込み電極、スピーチプロセッサ等からなる人工内耳システムに音声情報を電気信号として供給して使用者に提示しても良い。
 【0115】
 更には、この補聴器1は、脳幹インプラント(Auditory Brainstem Implant)機構を備え、聴性脳幹インプラントにより使用者に音声情報を提示するものであっても良い。すなわち、この補聴器1は、例えば埋め込み電極、スピーチプロセッサ等からなる脳幹インプラントシステムに音声情報を電気信号として供給して使用者に提示しても良い。
 【0116】
 更にまた、この補聴器1は、使用者の身体状態、利用状態及び使用目的に応じて、例えば超音波帯域の音声が認識可能な難聴者に対しては認識結果及び加工変換した認識結果を音声情報として超音波帯域の音声に変調・加工変換して出力しても良い。更にまた、この補聴器1は、超音波出力機構(bone conduction ultrasound)を用いて超音波周波数帯域の信号を生成し、超音波振動子等を介して使用者に出力しても良い。
 【0117】
 更にまた、この補聴器1は、ヘッドホンの接触子を耳珠に当て、骨伝導をおこしさらに耳珠、外耳道内壁の振動が気導音となるシステムである骨伝導ユニットを備え、当該骨伝導ユニットを使用して音声情報を使用者に提示しても良い。この骨導ユニットとしては、聴覚障害者用ヘッドホンシステムであるライブホン(日本電信電話株式会社製)が使用可能である。
 【0118】
 更にまた、この補聴器1は、スピーカ部25、表示部26等の複数の出力手段を備える一例について説明したが、これらの出力手段を組み合わせて用いても良く、更には各出力手段を単独で出力しても良い。また、この補聴器1では、マイクロホン21に入力した音声の音圧レベルを変化させる従来の補聴器の機能を用いて音声を出力するとともに、上述した他の出力手段で認識結果を提示しても良い。
 【0119】
 更にまた、この補聴器1は、スピーカ部25及び/又は表示部26から出力する出力結果を同時に或いは時間差を持たせて出力してするように音声情報生成部部23で制御するスイッチ機構を備えていても良く、複数回に亘って出力結果を出力するか一回に限って出力結果を出力するかを制御するスイッチ機構を備えていても良い。
 【0120】
また、この補聴器1の説明においては、図2に示したような一例について説明したが、入力された音声について上述した種々の加工変換処理を行って表示部26に表示させる第1の処理を行うCPUと、入力された音声について上述した種々の加工変換処理を行ってスピーカ部25に出力結果を出力するための第2の処理を行うCPUと、カメラ機構29で撮像した画像を表示するための第3の処理を行うCPUとを備えたものであっても良い。
 【0121】
このような補聴器1は、各処理を行うCPUを独立に動作させて第1の処理又は第2の処理を行わせて出力させても良く、更には各処理を行うCPUを同時に動作させて第1の処理、第2の処理、及び第3の処理を行わせて出力させても良く、更には、第1及び第2の処理、第1及び第3の処理又は第2及び第3の処理を行うCPUを同時に動作させて出力させても良い。
 【0122】
 更にまた、補聴器1は、使用者の身体状態、利用状態及び使用目的に応じて上述した種々の出力機構からの出力結果を同時に或いは時間差を持たせて出力してするように音声情報生成部23で制御しても良い。
 【0123】
 更に、この補聴器1は、複数のCPUを有し、上述した複数のCPUで行う第1?第3処理のうち、少なくとも1の処理をひとつのCPUで行うとともに、残りの処理を他のCPUで行っても良い。
 【0124】
 例えば、この補聴器1において、ひとつのCPUが入力された音声を文字データとして加工変換を行って表示部26に出力する処理(text to speech synthesis)を行うとともに、又はひとつのCPUが入力された音声に対して文字データとして加工変換を行って他のCPUが入力された同じ音声に対してSTRAIGHT処理を行ったりしてスピーカ部25に出力する処理を行い、他のCPUが入力された音声に対してボコーダ処理のうち、例えば音声分析合成法STRAIGHTを用いた処理を行ってスピーカ部25に出力する処理を行っても良い。すなわちこの補聴器1は、スピーカ部25に出力する信号と、表示部26に出力信号とで異なる処理を異なるCPUにより行うものであっても良い。
 【0125】
 更に、この補聴器1においては、上述した種々の加工変換処理を行って上述の種々の出力機構に出力する処理を行うCPUを有するとともに、加工変換処理を施さないでマイクロホン21に入力された音声を出力しても良い。
 【0126】
 更に、この補聴器1においては、上述した種々の加工変換処理の一を行うためのCPUと、他の加工変換処理を行うCPUとを別個に備えていても良い。 【0127】 更に、この補聴器1においては、上述のように認識結果や加工変換した認識結果や撮像した画像等について音声情報生成部23で変換する処理を行うとともに、従来と同様に音声を検出して得た電気信号を増幅させて音質調整、利得調整や圧縮調整等を行いスピーカ部25に出力するものであっても良い。
 【0128】
なお、この補聴器1において、信号処理部22及び音声情報生成部23で行う処理を、例えばフーリエ変換、ボコーダ処理(STRAIGHT等)の処理を組み合わせて適用することで、上述した処理を行っても良い。
 【0129】
また、本発明を適用した補聴器1では、個人的に使用する小型のタイプの補聴器について説明したが、集団で用いる大型のもの(卓上訓練用補聴器や集団訓練用補聴器)にも用いてもよい。
 【0130】
 視覚ディスプレイとしてHMD、Head-coupled display(頭部結合型表示装置)があげられる。以下に例を示す。双眼式HMD(左右眼毎に視差画像を提示し立体視を可能とするものや左右眼双方に同じ画像を提示し見かけ上の大画面を与えるもの)、単眼式、シースルー型HMD、視覚補助や視覚強調機能のついたディスプレイ、眼鏡型の双眼望遠鏡に自動焦点機能付でVisual filterを用いたもの、接眼部にコンタクトレンズを使用するシステム、網膜投影型(Virtual Retinal Display、Retinal projection display、網膜投影型の中間型)、視線入力機能付きHMD(製品名HAQ-200(島津製作所))や頭部以外(首、肩、顔面、眼、腕、手など)にマウントするディスプレイ、立体ディスプレイ(投影式オブジェクト指向型ディスプレイ(例 head-mounted projector:Iinami M et al., Head-mounted projector(II)-implementation Proc 4th Ann Conf Of Virtual Reality Society of Japan 59-62,1999)、リンク式の立体ディスプレイ、大画面のディスプレイ(spatial immnersive display)(例omnimax、 CAVE(Cruz-Neira C et al. Surrounded-screen projection-based virtual reality: The design and implementation of the CAVE, Proc of SIGGRAPH’93,135-42,1993参照)、CAVE型立体映像表示装置であるCABIN(Hirose M et al. 電子情報通信学会論文誌Vol J81-D-II No.5.888-96,1998)、CAVE等の投影ディスプレイとHMDの両方の特徴をもつ小型超広視野ディスプレイ(Endo T et al. Ultra wide field of view compact display. Proc 4th Ann Conf of Virtual Reality Society of Japan,55-58,1999)、アーチスクリーン)が使用可能である。
 【0131】
 特に大画面のディスプレイのものは大型補聴器として用いるときに使用してもよい。また、上述した補聴器1では、音の再現方法としてバイノーラル方式(3次元音響システムはHead-Related Transfer Functionを用いた空間音源定位システムを用いる:例 Convolvotron & Acoustetron II(Crystal River Engineering),ダイナミック型ドライバユニットとエレクトレットマイクロフォンを使用した補聴器TE-H50(Sony))を使用してもよく、実際と近い音場をつくったり、トランスオーラル方式(トラッキング機能付きのトランスオーラル方式が3次元映像再現におけるCAVEに対応する)を用いたりするものは主に大型の補聴器システムの場合に用いるのが好ましい。
 【0132】
 更にまた、上述のHMD2は、頭頂部に3次元位置検出センサーを備えていても良い。このようなHMD2を備えた補聴器1では、使用者の頭の動きに合わせてディスプレイ表示を変化させることが可能となる。
 【0133】
 強調現実感(Augmented reality(AR))を利用した補聴器1では、使用者の動作に関するセンサを備え、センサで検出した情報、マイクロホン21で検出し音声情報生成部23で生成した音声情報とを用いることで、AR空間を生成する。音声情報生成部23は、種々のセンサシステムとVR形成システムを統合するシステムとディスプレイシステムによりなるバーチャルリアリティ(Virtual realtiy(VR))システムとを協調的に用いることにより、実空間にVR空間を適切に重畳することで、現実感を強調するARの空間をつくることが可能となる。これにより補聴器1では視覚ディスプレイを用いるときに、顔面部にある画像からの情報を、情報が来るたびに大幅に視線をはずすことなく、ただ画像が目の前にあるだけでなく、画像情報が、いかにもそこにあるように自然に受けいれるようになり自然な状態で視覚からの情報を受け取ることが可能となる。以上を実行するには以下のシステムがある。
 【0134】
このような補聴器1は、図3に示すように、AR空間を形成するためには、仮想環境映像生成のための3Dグラフィックアクセラレータを音声情報生成部23の内部に搭載することでコンピュータグラフィックスの立体視が可能な構成とし、更に無線通信システムを搭載する。この補聴器1に使用者の位置と姿勢の情報を取得するため、センサ31として頭部に小型ジャイロセンサ(例 データテックGU-3011)を、使用者の腰に加速度センサ(例 データテックGU-3012)を接続する。以上のセンサ31からの情報を音声情報生成部23で処理を行った後、使用者の右目、左目に対応するスキャンコンバータ32a、32bで処理をして表示部26に映像が行くというシステム(Ban Y et al, Manual-less operation with wearable augmented reality system.Proc 3th Ann Conf of Virtual Reality society of Japan,313-4,1998参照)を用いることで可能となる。
 【0135】
また、この補聴器1では、センサ31に加えて状況認識システム(例Ubiquitous Talker(Sony CSL))とVRシステムを形成する他のシステムである以下の種々のセンサシステムとVR形成システムを統合するシステムとディスプレイシステム、及び、この補聴器1とを協調的に用いることにより、AR空間を強化することも可能であり、マルチモダリティを用いて音声情報を補足可能となる。
 【0136】
このようなVR等の空間を形成するには、先ず、使用者がセンサ31に本人から情報を送り、その情報がVR形成システムを統合するシステムに送られ、ディスプレイシステムから使用者に情報が送られることで実現する。
 【0137】
 上記センサ31(情報入力システム)として以下のデバイスがある。
 【0138】
 特に人体の動きの取り込みや、空間に作用するデバイスとして光学式3次元位置センサ(ExpertVision HiRES & Face Tracker(MotionAnalysis))、磁気式3次元位置センサ(InsideTrack(Polhemus),3SPACE system(POLHEMUS), Bird(Ascension Tech.))、機械式3Dディジタイザ(MicroScribe 3D Extra(Immersion))、磁気式3Dディジタイザ(Model 350 (Polhemus))、音波式3Dディジタイザ(Sonic Digitizer(Science Accessories))、光学式3Dスキャナー(3D Laser Scanner(アステックス))、生体センサ(体内の電気で測る)サイバーフィンガー(NTTヒューマンインタフェース研究所)、手袋型デバイス(DetaGlove(VPL Res),Super Glove(日商エレクトロニクス)Cyber Glove(Virtual Tech))、フォースフィードバック(Haptic Master(日商エレクトロニクス)、PHANToM(SensAble Devices))、3Dマウス(Space Controller(Logitech))、視線センサ(眼球運動分析装置(ATR視聴覚機構研究所製))、体全体の動きの計測に関するシステム(DateSuit(VPL Res))、モーションキャプチャーシステム(HiRES(Motion Analysis))、加速度センサ(三次元半導体加速度センサ(NEC製))、視線入力機能付きHMDがある。
 【0139】
また、ARを実現するためには、表示部26のみならず、触覚を利用した触覚ディスプレイ、触圧ディスプレイ、力覚ディスプレイがある。触覚ディスプレイにより音声を触覚により伝え、聴覚だけでなく触覚をも加えることで音声の認識をあげことが可能となる。この触覚ディスプレイとしては、例えば振動子アレイ(オプタコンや触覚マウス、タクチュアルボコーダ等)、触知ピンアレイ(ペーパーレスブレイル等)などが使用可能である。他にwater jet、air jet.PHANToM(SensAble Devices)、Haptic Master(日商エレクトロニクス)などがある。具体的には、補聴器1は、VRな空間でVRキーボードを表示し、信号処理部22及び音声情報生成部23での処理をVRキーボードまたはVRスイッチにより制御する。これにより、わざわざキーボードを用意したり、スイッチまで手を伸ばしたりすることが無くなり、使用者の操作を楽にし、耳に装着するのみの補聴器と近い装用感を得ることができる。
 【0140】
 前庭感覚ディスプレイとしては、ウオッシュアウトとウオッシュバックにより狭い動作範囲の装置でも多様な加速度表現ができるシステム(モーションベット)が使用可能である。
 【0141】
 VRシステムを統合するシステムとしては、以下のものがあり、それら限定されることはないが、C、C++のライブラリとして供給され、表示とそのデータベース、デバイス入力、干渉計算、イベント管理などをサポートし、アプリケーションの部分は使用者がライブラリを使用してプログラミングするものや、ユーザプログラミングを必要とせずデータベースやイベント設定をアプリケーションツールで行い、そのままVRシュミレーションを実行するシステムなどを使用してもよい。またこの補聴器1に関する個々のシステム間を通信にてつなげてもよい。また、状況を高い臨場感を保って伝送するのに広帯域の通信路を使用しても良い。また、補聴器1では、3Dコンピュータグラフィックスの分野で用いられている以下の技術を用いてもよい。現実に起こり得ることを忠実に画像として提示し、非現実的な空間を作り、実際には不可能なことも画像として提示することがコンセプトとなる。3Dコンピュータグラフィックスでは、以下のモデリング技術、レンダリング技術、アニメーション技術により可能となる。複雑で精密なモデルを作るモデリング技術としては、ワイヤーフレームモデリング、サーフェスモデリング、ソリッドモデリング、べジエ曲線、B?スプライン曲線、NURBS曲線、ブール演算(ブーリアン演算)、自由形状変形、自由形状モデリング、パーティクル、スイープ、フィレット、ロフティング、メタボール等がある。また、質感や陰影をつけリアルな物体を追求するためにレンダリング技術としては、シェーディング、テクスチュアマッピング、レンダリングアルゴリズム、モーションブラー、アンチエリアシング、デプスキューイングがある。また、作成したモデルを動かし、現実の世界をシミュレーションするためのアニメーション技術としては、キーフレーム法、インバースキネマティクス、モーフィング、シュリンクラップアニメーション、αチャンネルがある。また、サウンドレンダリングとして「文献Takala T,Computer Graphics (Proc SIGGRAPH 1992)Vol26,No2,211-20」に記載されている技術を用いても良い。
 【0142】
このようなVRシステムを統合するシステムとしては、例えばDivision Incのシステム(VRランタイムソフトウェア[dVS]、VR空間構築ソフトウェア[dVISE]、VR開発用ライブラリ[VC Toolkit]、SENSE8社のWorldToolKitと、WorldUp、Superscape社のVRT、ソリッドレイ社のRealMaster、モデルなしのVRの生成として、文献「Hirose M et al. A study of image editing technology for synthetic sensation. Proc ICAT’94,63-70,1994」に記載されている方法等を使用しても良い。
 【0143】
また、本実施の形態では、HMD2と、コンピュータ部3との間を光ファイバーケーブル4で接続してなる携帯型の補聴器1について説明したが、HMD2とコンピュータ部3との間をワイヤレスとし、HMD2とコンピュータ部3との間を無線や赤外線を用いた信号伝送方式等により情報の送受信を行っても良い。更に、この補聴器1においては、HMD2とコンピュータ部3との間をワイヤレスとする場合のみならず、図2に示した各部が行う機能毎に分割して複数の装置とし、各装置間をワイヤレスとしても良く、少なくともコンピュータ部3を使用者に装着させずにHMD2と情報の送受信を行っても良い。更にまた、この補聴器1においては、使用者の身体状態、利用状態、使用目的に応じて、図2に示した各部が行う機能毎に分割して複数の装置とし、各装置間をワイヤレスとしても良い。これにより、補聴器1は、使用者が装着する装置の重量、体積を軽減し、使用者の身体の自由度を向上させ、使用者の認識を更に向上させることができる。
 【0144】
また、補聴器1では、通信回路27を介して信号処理部22及び音声情報生成部23で行う処理の制御及びバージョンアップ、修理等をしても良い。これにより、補聴器1では、通信回路27を通じて視覚ディスプレイ、聴覚ディスプレイ等を通じて修理、制御、調整等を受けることができる。
 【0145】
また、本発明を適用した補聴器1によれば、合成した音声を表示することで使用者に提示することができるので、例えば事務(ウェアブルコンピュータとして)、通信(自動翻訳電話への応用など)、産業医学領域(メンタルヘルスなど)、医療現場(聴力検査への利用)、外国語学習、言語訓練、娯楽(テレビゲーム)、個人用のホームシアター、コンサートや試合等の観戦、番組製作(アニメーション、実写映像、ニュース、音楽制作)、水中(ダイビングでの水中における会話など)、諜報活動や軍事、騒音下などの悪条件での作業業務(建築現場工場など)、スポーツ(自動車やヨット等のレースや、山や海等の冒険時、選手の試合時や練習時での選手同士や選手とコーチ間の意志疎通や情報変換)、や宇宙空間での作業、運輸(宇宙船や飛行機のパイロット)、カーナビゲーションシステム、VRとARとを用いた種々のシミュレーション作業(遠隔手術(マイクロサージュリー)など)等、教育、トレーニング、内科治療、傷病治療、政治、旅行、買い物、マーケティング、広告、宗教、デザインの分野、アミューズメントパーク等におけるFish-tank VR display、裸眼立体視システム、テレイグジスタンス視覚システムなどを用いたVRやARや、テレエグシスタンスやアールキューブを利用したもの、電話やインターネットでの応対業務にも適用可能であり、音声言語障害者のみならず、重病患者、重度身体障害者のコミュニケーション、介護学校等の広い分野で使用可能である。

図の説明
 【符号の説明】
 1 音声生成装置、2 ヘッドマウントディスプレイ、3 コンピュータ部、7 ディスプレイ部、8 使用者用マイクロホン、11 外部用マイクロホン、21 マイクロホン、23 音声情報生成部、24 記憶部、25 スピーカ部、26 表示部

発明の名称 音声変換装置及び方法
出願人・権利者 有限会社ジーエムアンドエム 発明者・考案者 大場俊彦

出願番号 特願2000-600451 2000/02/16 国際出願番号 JP2000000872 2000/02/16 公開番号 公表/再公表番号 国際公開番号 WO2000049834 2000/08/24 公告番号 請求公告番号 登録番号 特許第4439740号2010/01/15

請求の範囲 【請求項1】 入力音声を検出して音声信号を生成する音響電気変換手段と、前記音響電気変換手段からの前記音声信号を用いて、使用者の身体状態、利用状態及び使用目的に応じて音声認識処理を行う信号処理手段と、前記信号処理手段からの認識結果を用いて音声情報を生成する情報生成手段とを含むコンピュータ部と、前記情報生成手段からの前記音声情報を前記使用者に提示する出力手段であって、前記音声情報を画像として表示する表示手段と音声として出力する電気音響変換手段とを備える出力手段と、前記音響電気変換手段、前記表示手段、前記電気音響変換手段及び前記コンピュータ部を使用者に装着するための手段と、前記音響電気変換手段、前記表示手段及び前記電気音響変換手段を前記コンピュータ部と電気的に接続するための接続手段と、を具備し、前記音響電気変換手段は、音声言語障害を有して発せられた音声を検出して音声信号を生成し、前記情報生成手段は、音声言語障害を有しないで発せられた音声を予めサンプリングすることで生成した音声データを記憶する記憶手段と、前記信号処理手段からの認識結果に基づいて、前記記憶手段に記憶された音声データを用いて出力する音声を示す音声情報を生成する音声情報生成手段とを備えることを特徴とする音声変換装置。
 【請求項2】 使用者の身体状態、利用状態及び使用目的に応じて認識結果を提示する音声変換装置であって、入力音声を検出して音声信号を生成する音響電気変換手段と、前記音響電気変換手段からの前記音声信号を用いて、使用者の身体状態、利用状態及び使用目的に応じて音声認識処理を行う信号処理手段と、前記信号処理手段からの認識結果を用いて音声情報を生成する情報生成手段とを含むコンピュータ部と、前記情報生成手段からの前記音声情報を前記使用者に提示する出力手段であって、前記音声情報を画像として表示する表示手段と、音声として出力する電気音響変換手段とを備える出力手段と、前記音響電気変換手段と前記出力手段とを前記コンピュータ部に電気的に接続するための接続手段と、を具備し、前記音響電気変換手段は、音声言語障害を有して発せられた音声を検出して音声信号を生成し、前記情報生成手段は、音声言語障害を有しないで発せられた音声を予めサンプリングすることで生成した音声データを記憶する記憶手段と、前記信号処理手段からの認識結果に基づいて、前記記憶手段に記憶された音声データを用いて出力する音声を示す音声情報を生成する音声情報生成手段とを備えることを特徴とする音声変換装置。
 【請求項3】 前記記憶手段は、更に、前記表示手段に表示する画像を示すデータを格納しており、前記信号処理手段により認識された結果及び/又は前記情報生成手段からの認識結果に基づいて、前記情報生成手段が、前記記憶手段に格納された前記データを読み出し、読み出された前記データが示す画像を前記表示手段に表示させることを特徴とする、請求項1又は2に記載の音声変換装置。
 【請求項4】 前記情報生成手段が、前記信号処理手段により認識された音声の音量に応じて、異なる大きさの図柄を前記記憶手段から読み出して前記表示手段に表示させることを特徴とする、請求項3に記載の音声変換装置。
 【請求項5】 前記情報生成手段は、使用者及び/又は使用者以外の者から発せられる音声を前記表示手段に表示させるとともに、使用者及び/又は使用者以外の者から発せられる音声の音圧レベルを増幅して前記電気音響変換手段から音声として出力させることを特徴とする、請求項1又は2に記載の音声変換装置。
 【請求項6】 前記情報生成手段は、前記信号処理手段での認識結果に応じて、前記音響電気変換手段で検出した音声の意味内容を前記表示手段に表示させることを特徴とする、請求項1又は2に記載の音声変換装置。
 【請求項7】 通信回線を通じて音声を前記信号処理手段に入力するとともに、前記出力手段からの画像と音声を前記通信回線に出力する通信手段を更に備えることを特徴とする、請求項1又は2に記載の音声変換装置。
 【請求項8】 前記信号処理手段は、前記音響電気変換手段からの音声について話者認識処理を行って各話者に対応した認識結果を生成し、前記出力手段は、各話者に関する情報を使用者に提示することを特徴とする、請求項1又は2に記載の音声変換装置。
 【請求項9】 画像を撮像する撮像手段を更に備え、前記撮像手段は、撮像した画像を少なくとも前記表示手段に出力することを特徴とする、請求項1又は2に記載の音声変換装置.
 【請求項10】 前記撮像手段は、使用目的に応じて、撮像した画像について画像変換処理を施して前記表示手段に出力することを特徴とする、請求項9に記載の音声変換装置。
 【請求項11】 前記撮像手段は、使用者に対して着脱自在となされていることを特徴とする、請求項8に記載の音声変換装置。
 【請求項12】 前記通信手段が、外部ネットワークに含まれる外部機器と接続されることを特徴とする、請求項1又は2に記載の音声変換装置。
 【請求項13】 前記通信手段は、前記音響電気変換手段で生成した音声信号及び/又は前記信号処理手段からの認識結果を前記外部機器に出力することができ、前記外部機器からの音声認識結果を受け取ることができることを特徴とする、請求項12に記載の音声変換装置。
 【請求項14】 前記通信手段は、前記信号処理手段及び/又は前記情報生成手段の処理内容を変更するプログラムを前記外部機器から受信し、前記信号処理手段及び/又は前記情報生成手段は、前記通信手段で受信した前記プログラムに基づいて動作することを特徴とする、請求項12に記載の音声変換装置。
 【請求項15】 前記情報生成手段は、前記信号処理手段からの認識結果を同時に又は時間差を持たせて前記出力手段から出力させることを特徴とする、請求項1又は2に記載の音声変換装置。
 【請求項16】 前記接続手段が無線接続手段であることを特徴とする、請求項1又は2に記載の音声変換装置。
 【請求項17】 前記音響電気変換手段は、音声言語障害を有して発せられた音声を、補助的手段と代用発声法とのうちの何れか一つを用いて是正された音声として検出して音声信号を生成することを特徴とする、請求項1又は2に記載の音声変換装置。
 【請求項18】 使用者の動作に関するセンサを更に備え、前記出力手段は、前記センサで検出した情報と前記情報生成手段からの音声情報とに基づいて仮想現実感を形成することを特徴とする、請求項1又は2に記載の音声変換装置。
 【請求項19】 使用者の動作に関するセンサを更に備え、前記出力手段は、前記センサで検出した情報と前記情報生成手段からの音声情報とに基づいて強調現実感を形成することを特徴とする、請求項1又は2に記載の音声変換装置。
 【請求項20】 音声対話機能を更に備え、前記音声対話機能による対話結果に基づいて、前記情報生成手段が前記信号処理手段による認識結果を加工変換することを特徴とする、請求項1又は2に記載の音声変換装置。
 【請求項21】 前記情報生成手段が、前記音声情報の要約を生成する機能を有することを特徴とする、請求項1又は2に記載の音声変換装置。
 【請求項22】 前記情報生成手段が、使用者の身体状態、利用状態及び使用目的に基づいて、前記信号処理手段からの認識結果に、使用者が理解し易い言葉を付け加える機能を有することを特徴とする、請求項1又は2に記載の音声変換装置。
 【請求項23】 前記情報生成手段が、前記信号処理手段からの認識結果に含まれる非言語情報を手話等の画像として前記表示手段に表示させる出力を生じる機能を有することを特徴とする、請求項1又は2に記載の音声変換装置。
 【請求項24】 前記入力音声が、警報、特定の雑音及び特定の音源からの音などの特定の音であるとき、前記出力手段が、前記信号処理手段からの認識結果に含まれる前記特定の音に対応する出力を生じる機能を有することを特徴とする、請求項1又は2に記載の音声変換装置。
 【請求項25】 前記情報生成手段が、音韻的に近い例を用いて誤りを訂正することにより、前記信号処理手段からの認識結果に含まれる聞き違いを修正した出力を生じる機能を有することを特徴とする、請求項1又は2に記載の音声変換装置。
 【請求項26】 前記入力音声の音声情報を生成している期間に前記使用者の音声又は外部の音声を検出したとき、前記情報生成手段が、前記音声情報の内容を変更する機能を有することを特徴とする、請求項1又は2に記載の音声変換装置。
 【請求項27】 前記情報生成手段が、以前に出力した音声情報を再度出力する機能を有することを特徴とする、請求項1又は2に記載の音声変換装置。

米国特許
US Patent No: 7,676,372
Link http://www.google.com/patents/US7676372

Prosthetic hearing device that transforms a detected speech into a speech of a speech form assistive in understanding the semantic meaning in the detected speech

A speech transformation apparatus comprises a microphone 21 for detecting speech and generating a speech signal; a signal processor 22 for performing a speech recognition process using the speech signal; a speech information generator for transforming the recognition result responsive to the physical state of the user, the operating conditions, and/or the purpose for using the apparatus; and a display unit 26 and loudspeaker 25 for generating a control signal for outputting a raw recognition result and/or a transformed recognition result. In a speech transformation apparatus thus constituted, speech enunciated by a spoken-language-impaired individual can be transformed and presented to the user, and sounds from outside sources can also be transformed and presented to the user.


慶友銀座クリニック

〒104-0045 東京都中央区築地1-13-11高橋ビル2F

電話 03-3542-3387(電話予約有)

診察日 月曜日から金曜日「電話予約有・特殊外来有」(土日祝日休み)