警備資料

アクセスカウンタ

zoom RSS 君が犯罪に走る確率は…米警察で導入「犯罪予測アルゴリズム」の功罪

<<   作成日時 : 2018/09/14 17:20   >>

ブログ気持玉 0 / トラックバック 0 / コメント 0

----------
ビッグデータとアルゴリズムの組み合わせによって、ある人が「犯罪者になる確率」を予想できるシステムが、シカゴ警察で導入されている。
たしかに治安は改善するかもしれない。しかし、そこには思わぬ落とし穴がある。システムが差別を助長し、再起の可能性を奪って行くーービッグデータ社会の「暗部」が見えてきた。
----------

君が犯罪に走る確率は…米警察で導入「犯罪予測アルゴリズム」の功罪
photo by iStock
ビッグデータで「犯罪者候補」が明らかに
 普段通りの生活を送っていると、ある日、突然警察官がやってきて「このままだと余生を塀の中で過ごすことになるぞ」と警告される。

 またある人は、「生活環境を変えないと大変な被害にあいますよ」と忠告される。

 しかし、当人たちには、心当たりも身に覚えもまったくない――。アメリカの大都市シカゴでは、いま実際にこんな経験をする人たちがいる。

 アメリカという国は、犯罪の「予防」に強く力を入れてきた。1994年、ニューヨーク市警は、戦略管理システム、通称「CompStat」という技術を導入した。

 過去の犯罪データを収集・分析することで、犯罪者の標的となる確率の高い〈場所〉を特定する技術だ。特定した場所に警備を増やせば、犯罪の発生を抑制できる。こう聞けばなんだか未来感が漂うが、実際にこの技術が導入されたのはずいぶん前のことだ。

 そこから20年余りが経過した現在、予測の対象は〈場所〉から〈人〉へと進化した。

 監視カメラの履歴データや、職業、年齢、学歴といった人々の多種多様なパーソナルデータなど、より多くのデータが分析対象になり、情報処理技術が高度化したことによって、「人」・「物」・「場所」の関連性を予測できるまでになった。

 つまり、いまや私やあなたが犯罪者や被害者となる確率が、相当な根拠を持ってはじき出されるようになったのだ。

 冒頭の、突然警察官によって警告や忠告がなされる事例も、上述の技術的進歩の成果の一つだ。

 シカゴでは、シカゴ警察が、ビッグデータと「予測アルゴリズム」によって、将来、誰が犯罪者や被害者となる蓋然性が高いのかを「Heat List」と呼ばれるリストにまとめている。

 そして、その対象となった人びとに対して、犯罪リスクを警告したり、職業訓練や住宅供給などの社会的サービスについて告知したりしているのである。

顔認証システムが「未来の犯罪者」を探し出す
 このような分野は、「犯罪予測(crime prediction)」ないしは「予測的ポリシング(predictive policing)」と呼ばれている。

 この分野の進歩はすさまじく1994年当時とはもはや次元が違う。

 特定の人物が重罪を犯す可能性を、性別、目や肌の色、交通違反や軽犯罪を犯した回数、刺青の有無といった個人情報を分析対象としつつ、合理的な精度をもって予測するアルゴリズムも、すでに開発されている。このアルゴリズム開発の指揮を執ったのは、現在はトヨタ・リサーチ・インスティテュートの副社長を務めるJim Adlerだ。

 なんでも、その予測アルゴリズムは、人物に関する膨大な情報の中から、重罪を犯す確率の高い人物として5万1246人を特定したそうだ。驚くべきことに、この5万1246人は、ここ40年近くの間に、ケンタッキー州で実際に重罪を犯したとして有罪判決を受けた人びとだったのである。多少の「偽陽性」――2220人に関して重罪を犯すと誤って予測した――はあったが。

 さらに、このような技術は、司法の現場でも活用が始まっている。アメリカの一部の州では、再犯予測システム「COMPAS」が、刑事裁判中の被告人の犯罪歴、雇用状況、教育レベル、家族の犯罪歴、信条を含む 130 以上の情報を分析し、再犯リスクを 10 段階で評価している。その評価結果は裁判官に提出され、判決の参考にされているのである。

 ところで、写真の中の顔を判別して人物を特定する「顔認証技術」を、すでに利用している人は少なからずいるはずだ。この技術は、入国管理やテロ対策の場面でも活用されている。

 こうした技術は、防犯カメラに映る顔を判別し、「過去」に犯罪歴のある人物や「現在」不審な行動をとっている「既知の人物」を集団の中に発見するためのものだと思っている読者は多いのではないだろうか。

 しかし、それではこの技術のポテンシャルを理解したことにはならない。

 顔認証技術も、上記の〈人〉を対象とする予測アルゴリズムと組み合わされると、単に犯罪歴のある「既知の人物」を「発見する」のではない、それ以上のことが可能になる。

 仮に、シカゴ警察が導入した予測アルゴリズムなどによって、私が「犯罪者になる可能性が高い」と判定されていたとしよう。

 その判定結果が私の顔のデータと紐づけられ共有されていれば、たとえば、どこかの会場で、監視カメラが私の顔を捉えると、犯罪予測システムはアラームを鳴らして会場の管理人に注意を促すことだろう。そうなれば、管理人は、私のことを何も知らなくても入場を拒否したり、マークしたりするようになるはずだ。

 要するに顔認証技術は、それまで犯罪と無縁だった人びとの中からも、今後罪を犯す可能性の高い人物を――アラームが鳴った時点では「疑わしい人物」を――捕捉したり、管理したりする手段になるわけだ。

フィンテックもメリットだけではない
 このような〈人〉を対象とする予測アルゴリズムは、行政分野だけではなく、金融の分野でも革命的な変化を起こしている。ビッグデータと予測アルゴリズムが進歩するなか、Finance とTechnology を融合させた〈FinTech〉と総称される企業やサービスが、近年、急速に台頭してきていることは周知の事実だ。

 たとえば、1994 年にバージニア州に設立されたCapital One 社は、それぞれの顧客が債務不履行に陥るリスクを、予測アルゴリズムを用いて割り出し、そのリスクに見合った金利及び使用限度額を設定したクレジットカードサービスを提供している。

 そして、それにより業界平均より 60〜75%高い不良債権額の抹消に成功した。いまでは6500 万以上の顧客口座を有する巨大な金融機関に急成長を遂げている。

 〈FinTech〉は、中国でも急速に拡大している。中国最大手の電子商取引企業アリババ・グループを筆頭に、〈FinTech〉が登場したことで、低所得者層や若年層などの「金融マイノリティ」も金融サービスを手軽に利用できるようになった。

 中国の調査会社艾瑞諮詢(iResearch)の調査によれば、たとえば、銀行以外の異業種が提供する決済サービス、いわゆる「第三者決済」の取扱高は、2018年には約 23兆元(約 460兆円)を突破しており、2014年から 2018 年までの年平均成長率は30%にも達する。

 資金調達や資産運用を必要としながらも、その機会に恵まれなかった人びとからすれば、〈人〉を対象とする予測アルゴリズムは、多くの便益をもたらすものだと言える。

 こうした技術は金融取引に関わる人物を徹底的に分析することで、その人物の未来の動向や状態を予測することで成り立っている。

 賢明な読者は、直ちに次のように理解したのではないだろうか――なるほど。つまり、目下、静穏な暮らしをしている私が、5年後に首が回らなくなる確率が予測され、それでもそのとき返済可能な金額だけが、いま、私に貸し出されるというわけだね、と。

 その通りだと言いたいが、金融業の方が一枚上手だ。どういうことか。

 周知のとおり、金貸しの利益の源泉は利息である。回収できなくなるのは大問題だが、かといって、簡単に返済できる金額だけを貸し付けていたのでは、ぶんどれる利息も少なく、利益も少ない。したがって金融業は、借り手がどうにかこうにか、少しずつ長期に返済されるギリギリの金額を貸し付けた方が、利息が増えて、利益も大きくなる。

 もうお分かりの通り、金融業界の予測アルゴリズムは、この金額をはじき出す。「生かさず殺さず」の貸付額が、あなたの手元にやって来るのである。

 未来を予測する手掛かりとして過去の莫大なデータが利用され始め、「ビッグデータ革命」が進行するなか、何かとその利点が強調されがちだ。金融取引の例で言えば、お金を借りたい人にとっては、返済可能な最大額がはじき出せるだろうし、金融業者もその方が利益は大きのだから、〈FinTech〉は、互いにWin-Winではないかといった具合だ。

「判断の基準」は知らされない
 しかし、懸念されるべき問題も多数ある。どういうことか説明しよう。

 犯罪予測や予測的ポリシングが治安の維持や回復に貢献し得ることは確かだろう。しかし、そのとき、「判断の基準」は明らかにされることがない。

 活用されているアルゴリズムのプログラムコードや、分析対象となるビッグデータ、統計上の中央値や平均値はどのようなものなのか、あるいは、分析結果に基づく評価の基準はどうなっているのかは、私たちにはまったく知らされていないのである。それらは企業秘密だからだ。

 たとえば、なるべく早くローンを返済しようと、良く言えば節約を、悪く言えばケチった生活をしている場合、そうした努力が反映された購買履歴を基に、予測アルゴリズムによって、財政難に陥っていると誤って判断され、結果、ローンの借り換え時に金利が上昇するという羽目になることも考えられる。

 しかし、私たちには、そうした誤認が起きていることさえ、まったく知ることが出来ないのだ。

 さらに、複数の信用調査機関が活用している予測アルゴリズムは、すべて同じだと言うわけではない。当然、評価基準も異なっている。だから、ある信用調査機関では信用評価が高くても、別の信用調査機関では信用評価が低いということもあり得る――実際、このようなバラつきがあることは、米国消費者連盟(CFA)および全米信用報告協会(NCRA)の調査によって、明らかにされている。

 こうしたことが生じているとき、もし融資を行う金融業者が、複数の信用調査結果を参考にしていたらいったい何が起きるだろうか。おそらく金融業者は、リスク回避を優先して、借手にもっとも不利な信用評価を採用し、高い金利を設定することだろう。しかし、このことも、私たちには知る由もない。

 このような事態は、技術そのものに対する信頼性とはまったく関係がない。これはすべて、技術を運用する人間の「意図」に基づくものだからだ。つまり、評価対象である私たちに、あれやこれやの運用上の手続きを意図的に隠そうとする、人間の側が引き起こしている問題なのである。

システムが「差別」を助長する
 問題はこれだけではない。

 予測アルゴリズムを運用する人間の側の意図とは無関係に、私たちが不当な扱いを受けることだってある。

 犯罪予測や予測的ポリシングに用いられる予測アルゴリズムは、ビッグデータを分析し、その結果を学習して分析結果の精度を上げる。多くは、過去の犯罪データを分析するわけだから、そのデータによってさまざまな影響を受ける。

 アメリカでは、社会的地位や経済格差などを反映して、逮捕される割合は、白人よりも有色人種の方が高い傾向にある。逮捕率には人種格差があるわけだ。そのデータを分析し、学習したアルゴリズムが顔認証技術と連動すると、次のようなことが起きる。

 ジョージタウン大学のClare Garvieらが調査した結果によると、米国国土安全保障省(DHS)が入国管理に用いている顔認証システムでは、逮捕率の人種格差を反映して、白人よりも黒人を要注意人物として評価する確率が高くなっていたのである。差別的な扱いは、システム開発者や運用者の意図とは無関係にだって起きるのだ。

 さらに、マズいことには、要注意人物だと評価された黒人が無実であっても、いったんそのように評価されると、否定的な評価が下されたという事実自体をアルゴリズムが学習してしまいかねない。有色人種を要注意だと評価する確率を強化するという、「負のスパイラル」も起きる可能性がある。

 そして、それは、不当な評価を受けた黒人本人にも生じ得る。あるとき、システムによって要注意人物だと評価されてという履歴が、その後の人生に目印のように付いて回ることになるからだ。

 このような事例は他にもある。金融機関が用いる信用調査システムでは、不安定な就労形態をリスクと見なし、渡り労働者(migratory worker)や低賃金労働者の信用スコアを低く見積もる傾向がある。

 それゆえ、不安定な就労を強いられる人びとの大多数が人種的マイノリティである場合、貸し渋られたり、高い金利が設定されたりするのは、人種的マイノリティばかりになるだろう。要するに、差別的意図のない、「差別的効果」がもたらされるわけである。

 以上をまとめると、予測アルゴリズムに関しては、きちんと設計意図通りに作動するのか、という技術自体に対する信頼性の問題よりも、それを運用する人間の側の都合で生じる問題や、既存の差別的な慣行が意図せず技術に反映されるという問題の方が、よほどシビアな状態を引き起こすということだ。

 真に懸念されるべきなのは、これらの問題の方だと言った意味が、分かって頂けたのではないだろうか。

権利の侵害にどう対応するか
 では、対策はどうするのか。

 個人に関して言えば、過去の履歴をいつまでも利用され続けないようにする、何か法的な権利を持てるようにすることも必要だろう。

 いわゆる「忘れられる権利」はそうしたものの一つだろうが、さらにそれを拡大して「過去を利用されない権利」といったものも、今後必要とされるのではないか。

 ここでは詳しく解説しないが、先ごろヨーロッパで施行されたEU一般データ保護規則(GDPR)も、ビッグデータ革命が、私たちの基本的な権利や自由を侵害しないようにするためのものだ。

 しかし、これらも完全なものではない。なにせ、こうした法律は、基本的に何か不当な目にあっていること、つまり権利が侵害されたり、尊厳が冒されていることを、当の本人が知っていてそれを回復するためのものだからだ。

 以上で述べた事例からもお分かりの通り、そうした不当な扱いは、私やあなたの知らないところで起こる可能性がある。私たちがいまどのよう評価され何が失われているのか、それすら知らないまま、しかし表面上は体裁よく扱われるとき、私たちが失っているものの中には、異議申し立てするチャンスも含まれているのだ。

 それゆえに、私たちの基本的権利や基本的人権を実効的に守ろうと思うなら、私たち個々人の権利侵害や尊厳毀損の自覚の有無にかかわらず――つまり親告罪に限定されない形で――対処可能な社会的な対策を講じる必要があるだろう。

 私は、その一つは、予測アルゴリズム自体や運用者を監査する第三者機関(あるいはタスクフォース)を設立することだと思っている。

 そして、その第三者機関の是正勧告に法的な強制力を与えることのできる、かつ、行政機関や民間企業に予測アルゴリズムの開発や活用を明らかにする義務を負わせうる、そうした法律の整備を進めることが不可欠だと思うのだ。

テーマ

関連テーマ 一覧


月別リンク

ブログ気持玉

クリックして気持ちを伝えよう!
ログインしてクリックすれば、自分のブログへのリンクが付きます。
→ログインへ

トラックバック(0件)

タイトル (本文) ブログ名/日時

トラックバック用URL help


自分のブログにトラックバック記事作成(会員用) help

タイトル
本 文

コメント(0件)

内 容 ニックネーム/日時

コメントする help

ニックネーム
本 文
君が犯罪に走る確率は…米警察で導入「犯罪予測アルゴリズム」の功罪 警備資料/BIGLOBEウェブリブログ
文字サイズ:       閉じる