顔認識で「誤認逮捕」汚名晴れるまで1年超の悲劇 犯罪捜査で使われる顔認識アルゴリズムの弱点
知っているようで知らない「アルゴリズム」。現代では、買い物から医療、犯罪予測、車、政治活動まで、暮らしのあらゆる要素にアルゴリズムが潜んでいる。数学者ハンナ・フライUCL准教授がそんなアルゴリズムの実態を検証し、人とコンピューターの共存の道を問う著書が『アルゴリズムの時代 機械が決定する世界をどう生きるか』だ。
私たちは機械がどうやって判断しているかもよく考えないまま、むやみにショッピングサイトのおすすめに従ったり、逆にAIに仕事を奪われることを怖れたりしていないだろうか。
アルゴリズムと人間の意外な関係を実例から見直せば、どうやって機械とつきあっていけばいいかが見えてくる。ここでは本書を一部抜粋し再構成のうえ、顔認識アルゴリズムが招いた悲劇をご紹介しよう――。
誤認逮捕の悲劇
2014年、スティーヴ・タリーは南デンバーの自宅で眠っていた。すると、玄関のドアをたたく音が響いた。ドアを開けると、男が立っており、車をタリーの車にぶつけてしまったので外に出て確認してほしい、と言った。
渋々言われたとおりにしたタリーが傷を確かめようとしゃがみこんだ瞬間、閃光弾が投げられ、3人の男が現れてタリーを殴り倒した。ひとりが頭を踏みつけ、ひとりが腕を縛り、もうひとりが銃床で殴りつづけた。
タリーは神経を損傷し、血栓ができて、ペニスが折れる大怪我を負った。「まさかペニスが折れるものだとは、知りもしなかった」。彼はのちに記者に語った。「警察を呼んでくれ、と叫んでいた。でも、気づいたんだ、おれをぶちのめしてるのが警官だって」。
2件の銀行強盗事件の容疑者として逮捕されたタリーは、「おまえらはいかれてる」と叫んだ。
「人ちがいだ!」
その言葉はうそではなかった。タリーが逮捕されたのは、本物の銀行強盗にそっくりだったからだ。
地元の新聞に載った銀行強盗犯の写真を見て、タリーの勤めるビルで仕事をしている男が通報した。その監視カメラの映像を、顔認識ソフトウェアを使ってチェックし、「犯人はタリーに間違いない」と結論を下したのはFBIの専門家だった。
タリーにはアリバイがあったが、FBIの証言のせいで、汚名が晴らされるまでには1年以上かかった。その間2カ月も監房に入れられ、身の潔白が証明される頃には仕事も家も失い、子どもとも会えなくなっていた。何もかも、人ちがいのせいだった。
顔認識アルゴリズムは犯罪捜査で広く使われるようになった。顔写真や映像、3Dカメラの画像を入力すると、顔を検出して、特徴を測定し、データベース内の顔写真と比較して、身元を特定する。
ベルリンでは鉄道駅でテロリストの顔を見分ける顔認識アルゴリズムが試行運用されている。ニューヨーク州では2010年以降、詐欺やなりすまし犯罪の4000人以上の犯人逮捕にアルゴリズムが貢献している。
一方、人間の顔認識の実力はさほどでもない。イギリスで、パスポートをチェックする入国審査官に対して空港のセットをつくって行われた実験では、顔認識のプロである審査官が本人のものでないパスポートの14%を見逃し、パスポートと一致している人の6%を別人と見誤った。
だが、スティーヴ・タリーの例のように、犯罪捜査では誤認識が重大な事態を引き起こす。そこには大きな問題がある。じつは、皆が思っているほど顔認識アルゴリズムも顔の識別が得意でもないのだ。
顔認識アルゴリズムは主に2種類ある
顔認識アルゴリズムそのものは、主に2種類ある認識方法のいずれかを用いている。
ひとつは、2Dの写真を何枚も組み合わせるか、赤外線カメラで顔をスキャンするかして、顔の3Dモデルを作る。iPhoneのフェイスIDがこの方法だ。
これは変化しにくい組織や骨――眼窩や鼻筋など――を重視し、表情や加齢による変化の問題を回避する。アップルによると、フェイスIDで本人以外が携帯のロックを解除できる確率は100万分の1とのことだ。
だが、双子やきょうだいならロックが外れる場合があり、子どもが親の携帯を使える場合もある。3Dプリンターで作った特別なマスクでアルゴリズムを欺けるとも言われている。
パスポート検査や監視カメラの映像にはもうひとつのアルゴリズムが使われている。そちらは人が特徴として認識する目印にはほとんど注目せず、2Dの画像内の明暗のパターンを統計的に数値化する。そして膨大なデータからアルゴリズムに学習させる。
グーグルの顔認識用のニューラルネットワーク、フェイスネットはこうした統計値を用いたアルゴリズムだ。その能力を検証するために、有名人の顔写真5000枚を識別させた。
まず人間がその作業を行って、97.5%という正解率をたたきだした。とはいえ被験者がよく知っている有名人の顔なので、驚くほどのことではない。だが、フェイスネットはさらに優秀で、正解率はなんと99.6%だった。
それほどの精度ならば、犯人を特定するためにそのアルゴリズムを使ってもかまわないように思える。だが、そこにも問題がある。
5000枚の顔写真は、アルゴリズムをテストするには少なすぎるのだ。犯罪捜査に使うなら、数千ではなく、数百万の顔の中からたったひとつの顔を発見できなければならない。
だが、データ内の顔の数が増えると、誤認の確率も大幅に高くなる。同じアルゴリズムでも、より多くの顔のデータベースで使うと、精度は急激に落ちてしまう。
2015年、ワシントン大学で100万人の顔のデータベースをもとに、世界中の人の顔をアルゴリズムがどのぐらい正しく認識できるかを競う大会が開かれた。
有名人の顔認識ではほぼ完璧だったフェイスネットは、正解率がいきなり75%に落ちた。それ以外のアルゴリズムは10%台と、はっきり言えば惨敗だった。2018年段階のトップは、中国のテンセントのアルゴリズムで、正解率83.29%だった。
つまり、数百万人のデータベースからひとりの犯人の顔写真を見つけだす場合、6回中1回は間違えるわけだ。スティーヴ・タリーのような事件が起きる可能性があるなら、完璧でない科学技術を証拠として使うべきではないかもしれない。
顔認識による犯罪者
しかし、顔認識による犯罪者の確保には大きな利点もある。
2015年、ハンマーを持ってマンハッタンの通りで通行人を次々に襲った男の監視カメラの映像から、顔認識アルゴリズムはその男がデヴィッド・バリルだと特定した。バリルは事件の数カ月前にインスタグラムに血の付いたハンマーの写真を投稿していた。
2017年、ロンドン橋で起きた事件では、ワゴン車で歩行者を轢き、さらにバラ・マーケット付近で無差別殺傷事件を起こした男のひとりヨセフ・ザグバは、イタリアに入国しようとしたときに顔認識アルゴリズムによって身元がばれた。
こうした犯罪者をすばやく見つけるために、どのぐらい濡れ衣を着せられる人がいてもしかたがないとあきらめるのだろうか?
それはある意味で、よりよい社会とはどんなものなのかを考えることだ。犯罪の発生を可能なかぎり抑えるべきなのか? それとも、無実の人が濡れ衣を着せられない社会を目指すのか? 他者のためにどの程度まで個人を犠牲にするのか?
マサチューセッツ工科大学教授のゲイリー・マークスはこう解説した。
「かつてのソビエト連邦では、全体主義の独裁的政府という最悪の状況下で、信じられないほど路上犯罪が少なかった。だが、そのためにどのぐらいの代償を払ったのだろう?」
アルゴリズムの判断を鵜呑みにせずに、真意を精査して、誰が得をするのか明確にし、アルゴリズムのまちがいを正し、現状に甘んじないようにする。これこそが、アルゴリズムが社会のために役立つ未来を作るためのカギになる。そういう未来が作れるかどうかは、人間にかかっているのだ。
