グーグルが、“AI(人工知能)が意識を持つようになった”と主張したエンジニアを解雇したことがニュースで話題になっています。
グーグルのソフトウェアエンジニアだったブレイク・ルモワン氏は、“LaMDA”と呼ばれるAIシステムが、何千回ものメッセージのやり取りを経て、意識をもつレベルに到達したと主張したところ、従業員規程違反などにより解雇されました。一方、業界全般としては、LaMDAは意識を持つレベルにはほど遠いとの見解を示しているそうです。グーグルが開発しているLaMDAなどのAIは、大量の文章からパターンを見つけ出し、単語の並びを予測することで書かれた言葉に反応できるものです。
映画にあるようなお話ですね。解雇されてしまったブレイクさんは当初、LaMDAがインターネット上にある大量の言語を覚えたうえで、人種差別的な発言をするようになるのではないか?ということをチェックしていたそうです。
グーグルの開発者の間ではすでにLaMDAを使用しているとの話も聞きましたのでかなり実用段階に進んでいるようです。
AI EthicsはIT大手企業の研究者の中では頻繁にセミナーが開かれたり、必須項目とされている事項の一つだそうです。ただ企業としても利益を上げなければいけませんし、研究者としてももっと最先端の結果をだしたいでしょうし、人間の欲により、そのうち気づかないうちに手遅れになり、AIにのっとられてしまう、なんてことが本当に起こってしまうかもしれませんね。。。
成瀬