「ヒトラーは間違っていない!」…「悪のAI」育つ可能性も 人間が譲れぬ「一線」とは?
AI新時代「お父さん、300万円貸して」。ある日、高齢男性のもとにかかってきた遠方に住む息子らしき声の電話。男性も当初は振り込め詐欺を警戒する。だが声は息子そのもの。話も弾み、次第に男性の警戒心は解かれ…。
膨大なデータから機械が学ぶディープラーニング(深層学習)が実現する時代。はこだて未来大(函館市)の松原仁教授は、人工知能(AI)によるこんな犯罪も絵空事ではないと警告する。
松原教授が自ら会長を務める人工知能学会に倫理委員会を設置したのは平成26年。倫理委では高度なAIが将来的に犯罪に使われるリスクも洗い出す。「実際、会話を合わせる研究は進んでいる。音声の再現技術もかなりの段階にある。機械の性能が増せば悪用されたときの影響は大きい」
□ □ □
悪用の危険性を想起させる出来事はすでに起きている。3月下旬、米マイクロソフト社がインターネット上で行ったAI「Tay(テイ)」の実験がわずか1日で中止された。一部の人から浴びせられた差別的発言を忠実に“学習”。「ヒトラーは間違っていない」といった不適切な発言をしたためだ。
「社会には必要な経験」。人工知能学会倫理委メンバーも務めるSF作家の長谷敏司さんはこの騒動に未来への教訓を読み取る。
Tayはネット上で会話を重ねて成長するが、一般社会には善意だけでなく悪意も渦巻く。今回の失敗を受け、特定の話題の議論を防ぐフィルターの必要性も一部で指摘された。長谷さんは「偏見の強い親に育てられた子供も偏見を持つのと同じで、現状AIの問題は元データを与える人間の問題。この小さな失敗を大きな危機を防ぐ糧にする必要がある」と話す。
技術の過信にも落とし穴は潜む。2月中旬、米カリフォルニア州の公道で、グーグルが実用化を目指す自動運転車が実験走行中にバスと接触した。路肩の砂袋を検知して左へよけ、左後方から来たバスの側面に接触したのだ。この自動運転車側の過失による初の事故例は、AIが下す緊急時の判断に疑問符を突きつけた。同時に、事故の過失は自動運転車のソフトにあるのか、同乗者か。責任の所在が見えにくくなる、という問題も投げかけた。
□ □ □
映画「2001年宇宙の旅」や「ターミネーター」をはじめ、SFでは制御不能となったAIが人類に牙をむく姿が描かれてきた。実際、驚異的なスピードで進化しつつあるAIの暴走を懸念する専門家もいる。その一人、世界的な物理学者、スティーブン・ホーキング博士は「完全な人工知能は人類の終焉(しゅうえん)を意味する」と警鐘を鳴らす。程度の差こそあれ、日常に入ってくるAIが既存の価値観や法との間で摩擦を生む可能性は高い。ロボット倫理学を研究する名古屋大の久木田水生(みなお)准教授は言う。
「新しい技術にはメリットとデメリットがある。問題が起こったときに素早く対応できる態勢を今から整えるべきだ」
4月中旬、人工知能(AI)との共生に向けた課題などを探る総務省の有識者検討会が開かれた。
「(AIに)管理されるようで気持ち悪い。何となく嫌だな…とも感じる。そんな心理面にも配慮が必要では」。東大の江間有沙特任講師(科学技術社会論)は約30人の出席者を前に、AIの進化が社会にもたらす漠然とした不安を解きほぐす大切さを語った。
江間さんが不安の一例に挙げるのが、インターネット書店のアマゾンが過去の購入履歴などをもとに「おすすめ」を知らせてくれるサービス。購入者の考えや判断を学ぶAIの能力は今後も向上が予想される。「知らないうちに特定の方向へ人が誘導される可能性もある。何をどこまでAIに任せてどんな社会にしていくのか。一人一人が考える必要がある」
□ □ □
技術の悪用や社会との軋轢(あつれき)を防ごうと、AIの開発や使用時のルールをめぐる議論も始まっている。
4月末に高松市で開かれた先進7カ国(G7)情報通信相会合。「AIについては世界の知恵を結集し人類の繁栄につなげる」。高市早苗総務相は閉幕後の記者会見で、AIの開発ルール作りで合意した成果を強調してみせた。
日本側が示した開発ルールは▽第三者による悪用防止▽制御を失って人に危害を加えることを防ぐ-など8項目。これには、たたき台がある。情報法を専門とする慶応大の新保史生教授が昨年秋にまとめた「ロボット法 新8原則」だ。
SF作家のアイザック・アシモフが「人間に危害を加えてはならない」などを柱とする「ロボット工学の3原則」を提唱したのは半世紀以上前。AIとの共存が夢物語ではなくなりつつある中、問題は当時より複雑で多岐にわたる。このため、新保教授は新8原則に「秘密保持」といったプライバシー保護の原則も盛り込んでいる。
思い描くのは高度なAIを搭載した介護ロボットなどの姿だ。家族一人一人の表情を読み取る高精細のカメラを備え、会話も自然にこなす。それがネットワークでつながれば、画像や音声など膨大な個人データが運用者側のサーバーに蓄積される。
そんな社会では情報を外部に漏らさない厳格な仕組みや基準が必要になる、と新保教授はみる。「技術の『安全』は社会の『安心』を担保しない。安全基準にのっとった自動運転車が自爆テロにも使われ得るように。場当たり的な対応には限界がある」
□ □ □
AIに委ねて便利になることは多い。一方で人間として譲れない一線もある。AIとの“分業”を考えるのは自分たちの幸せを再定義する営みともいえる。人工知能学会会長の松原仁・公立はこだて未来大教授は、その行方を悲観はしていない。
「人間は自分と異質なものに反感を持つ。でも時間をかけてそれを受け入れ、空気のようになじませてもきた。人類の進歩は、そうした柔軟性の歴史でもあると思うのです」
関連記事