2011年1月14日

Word Lens と Google Translate から見える翻訳/通訳者の近未来

「技術が進歩すると翻訳者/通訳者は将来的にいらなくなるのではないか?」

この質問は、もう何度も翻訳者、通訳者に限らず議論されているように思います。
私が参加している翻訳フォーラムでも、時々この質問が上げられますし、そのたびに議論は白熱しています。

ただし、結論は決まって「少なくとも私たちが生きているうちは、優秀な翻訳者/通訳者は生き残る。」というものです。

これは裏を返せば、そうでない翻訳者/通訳者は淘汰される...ということなのです。

最近発表された二つのニュースと、そこで取り上げられた技術の歴史からこの点を読み解いていこうと思います。
 

まずはじめに年末に発表されたiPhoneアプリです。レンズで捉えた文字をOCR機能で認識し、画面上で翻訳してくれる「Word Lens (IT Media newsより)」です。

今のところ対応しているのは英語とスペイン語のみです。しかし、対応言語については辞書機能にゆだねられるところが大きいため、順次拡大していくことは間違いないでしょう。現段階でネックになるのは、OCR機能と、やはり翻訳の精度です。

OCR(Optical Character Reader の略で光学式文字読取装置)機能は、通常OCRで要求される以上の要素をクリアする必要があります。
カメラの画面上で捉える文字の精度が対象物との距離や角度等に大きく依存する点です。
現段階での翻訳機能は、認識した文字をベースに辞書を引いて表示するというレベルのもののようです。


ただし、一般の機械翻訳の精度を考えれば、近い将来に現在広く使われているweb翻訳機能レベルに上げることは十分可能でしょう(精度の是非は別にして...)
 

将来像をイメージしてもらうために、一般的なOCRと機械翻訳の開発の歴史を少しだけ振り返ってみます。

OCR機能や機械翻訳の歴史はとても古く、当初はロシア語から英語への実験だったそうです。ロシアが人工衛星の打ち上げに成功したことにショックを受けたためだと言われています。アメリカはさぞや慌てたことでしょう。1950年代でした。

とは言え、私が個人的に技術として意識するようになったのは20年ほど前からで、大学卒業直後に勤務したメーカー系のシステム会社での体験からです。


当時はOCR技術がちょうど世に出て活用され始めた時期です。大量のscanドキュメントをOCR機能を利用して検索可能なテキストデータに変換します。そして、データベースに保存して、ドキュメント内のキーワードや、保存時に付けたタグなどで様々な検索機能を実現する...というのがうたい文句のシステムです。私の勤務先メーカーでも発売されはじめ、業界ではかなり注目を集めていたのを思い出します。

それと時を同じくして、機械翻訳ソフトの開発も加速し始め、私の同期からも英文科出身の新入社員が一人、そのソフト開発部門へ引き抜かれていきました。


ただし当時そのどちらのソフトもワークステーション上(UNIX)でしか動作せず、ハードとセットで考ると数百万する程高価なものでした。ですが、今ではPC上で動作し価格も数万円、辞書や翻訳精度も進歩し業界シェアNo.1と言われているようです。ちなみにコチラ

そしてつい先日、それに対抗するようにAndroidベースのスマートフォン上で動作する自動通訳アプリ「Google Translate for Android (Engadjet日本版より)」が発表されました。

スマートフォン以外ではすでに一年前に実用化されており、アメリカ以外の150を超える国で実際に使われているとのこと。これだけ聞くと、そんな夢のようなアプリがあるのか!と勘違いしそうですが、実際はどうなのでしょう。



実際に試してみた人のYouTube見つけました。

これは機械翻訳に対して自動通訳と言われるものです。
自動通訳でネックになるのは音声認識機能です。この技術も1970年代後半から開発が始まっています。しかし私が知る限りでは、長期にわたって開発されてきた割にはなかなか通訳の実用に耐えるものにはなってないはずです。

以前、自動車メーカーに勤務したころ、自動音声認識を活用した車内機能操作はすでに実用化されていました。口を動かす以外の物理的な動作が必要ないため、安全性の面からプレミアム装備として常に注目を集めていました。しかし、認識言語が英語のみであったため、販売国も限定、認識の精度もそれほど高くない事から、実際の装着率はかなり低かったと記憶しています。

人の話す速度や、発音の癖など、制御解析する対象があまりにも多いためでしょう。音声認識の精度を上げるため、事前に音声認識対象個人の音声を取り込んで解析させるという手法もとられています。


パターン化されたセンテンスの認識以外で通常の話し言葉を認識するのは、まだまだ遠い先のレベルだというのが私の理解です。

自動通訳と機械翻訳を比べてみると、すでにタイピング文化が確立されていることからソース言語を取り込むことについて機械翻訳は有利に進歩すると考えられます。さらに言えば、トピックごとの辞書機能の強化や、訳出時のロジック構築のアルゴリズムの精度があがれば、説明書やマニュアルの類が実用に耐えうる翻訳の精度を出し始めるのは時間の問題かもしれません。

一方、自動通訳においても、実際「実用化されている」という現実を見ると「使用シーンを限定して、自動通訳のレベルを知った上であえば十分使える」と考えることも可能です。難しい会議や商談は無理でも、簡単な道案内の目的や、ガイド的な使い方に限定すれば問題無いと言うことになります。

つまり、最初に示した見解「そうでない翻訳者/通訳者は淘汰される」にたどり着くことになります。


また、私たちが生きている間に上記で述べたようなボトルネック技術がいつブレークスルーするか?それは、たとえこれまでの長い開発の歴史があったとしても、20世紀末からの日々技術革新のその速度と考えれば、そう遠い先の話でないようにも思われます。


実際、ここでは二つのアプリしか紹介していませんが、「Googlegoggle(Engadjet日本版より)」と呼ばれる、携帯電話で撮った写真で情報検索できるAndroidアプリが試験的にリリースされるなど、関連技術はめざましく進化しています。

私はどんなに技術が進んでも、機械には出来ない人間技は必ず残ると思っています。
翻訳であれば、書かれた文章の背景や理由を理解し、文章に書かれていない行間を読み取った上で、単なる文字/文章の置換えでない訳文を作ること。
通訳でも同様に、スピーカーの立場に気持ちを寄せて内容を理解し、それをターゲット言語でふさわしい声や訳語のトーンにのせて通訳すること。

その理解に立ったとしても、今回の二つのアプリケーションが発表されたことの意義は、非常に大きいと思います。

それは、それぞれのアプリが一般ユーザーに価格的、距離的に近い携帯電話で実現され、それにより機械翻訳、自動通訳の近未来像をよりリアルに予感させるからです。

これからはその時代のレベルの機械にできる以上のことが出来てはじめて、私たちは翻訳者通訳者として価値ある存在になるということを肝に銘じておくべきでしょう。
翻訳者も通訳も時代が進むほどに、より高いプロフェッショナリズムが求められるのは間違いなさそうです。