IA: いかなる破壊活動も罰せられますか?

CNNが公開した画像

サミュエル・ウィッテフェーン・ゴメスCTXT | 翻訳: ロニー・ロドリゲス

防犯カメラが誰が盗んでいるかを自動的に報告するスーパーマーケットがあります。 人工知能のおかげで、これらのカメラは、特定の製品の撤去に通常伴うジェスチャーや態度を識別することができます。 これは米国や日本のような国でも起きています。 たとえばカタルーニャ州には、乗客がチケットなしで入場するとカメラが警告する鉄道駅や地下鉄駅もあります。

さらに、ドライバーが許可された制限速度を超えた場合に自動的に速度を下げるシステムを組み込む車両が増えるべきです。 アルゴリズムは、脱税の検出と制裁にも関与していることがよくあります。 そして、コロンビアの裁判官は、ChatGPT を使用して文章を書くことで、一部の弁護士が夢見る地平を実現しました。

これらの例は、異なっているように見えますが、法の自動化という同じ傾向を示しています。 テクノロジーがもたらす可能性を考えると、法規制への準拠を確実にするためにシステムに投資したくなるでしょう。 そして、これらのツールが本当に普及すれば、状況に関係なく、誰も万引きしたり、地下鉄に忍び込んだり、車のアクセルを強く踏みすぎたりすることができなくなる日が来るかもしれません。 しかし、これは法の勝利というよりも、道徳的共同体の実践としての法の終焉と、それを鋳型、トンネル、盲目的な専制政治のようなものに置き換えることを意味するかもしれない。

また、各国が直面する主要な課題を考慮すると、自動化のリスクを理解する必要があります。 気候変動、移民、パンデミック、テロの脅威などの大規模な問題は、多くの場合、政治家やビジネスマンの口から、テクノロジーが私たちに提供する制御を約束して、対応する解決策を見つけます。 緊急性と強制性の結合は、私たちの時代のしるしであるように思えます。結合は、どう見ても恐るべきものです。

このような脅威の蓄積は、おそらく大規模な規制を施行できる唯一のシステムである自動システムに当局が制御を委任することを多くの人にとって正当化するだろう。 しかし、法律の尊重(非難または単純な服従による)と、それに違反することの不可能性の間には、乗り越えられない違いがあります(権力の構造は尊重のみを許可しているため)。

哲学者のマキシム・フェブルアリは、最新の著書の中で、機械は私たちとは異なり、責任を持って行動する道徳的主体ではないと説明しています。 したがって、彼らは、彼らが決定した私たちが実際には道徳的な存在であることを見て理解することができません。 フェブルアリは、「機械は人間としての私たちについての真実をまったく気にせず、理解することにも関心を持たない。彼らが求める唯一のものは機能すること、つまり操作を実行することだ」と書いている。

したがって、地下鉄の運転手はどんなに厳しい人であっても、常に自動化システムよりも限りなく思いやりがあるのです。 機械とは異なり、運転手は、地下鉄に忍び込むには理由があること、各乗客が特殊なケースであることを理解する能力を持っています。 一方、機械は人やストーリーやニーズを認識せず、同じ動作を可能にする指標を検出することしかできません。

CSICの人工知能専門家ラモン・ロペス・デ・マンタラス氏が最近非難された フォーラムで 人間の特性をテクノロジーのせいにするという広く広まった間違い。 「私たちはAIが事実上無限であると考えていますが、実際にはAIは非常に限られており、さらに重要なことに、人間の知性とは何の関係もありません。」 これらのツールの長所と使用法にもかかわらず、マンタラス氏は、人工知能は実際には知的ではなく、理解することができずにタスクを実行すると警告します。 AI は、具体的な操作を実行する点では確かに私たちよりも有能ですが、他の人が持つような世界に関する複雑な知識を持っていません。

世界は主に非公式のプロセス、経験、そして定量化できないジェスチャーを通じて機能します。 最も残忍な人であっても、機械とはまったく関係のない多数の感情、つまり常に彼の行動に影響を与える感情を経験します。 共感、憤り、疑い、葛藤、柔軟性、恐怖、忍耐、正義。 これらすべてを無視して、機械を人間と同一視する人々は、機械の能力を基準とし、生きているものと不活性なものを区別するものを無視しています。 歴史はまた、非公式のプロセスの重要性を無視すると、常に惨事につながることを示しています。

機械的な法執行も法の支配の原則に矛盾します。 法の支配が他の権威主義モデルと異なるのは、権力が保証の対象となることです。 決定は単に権威に依存するものではなく、正当かつ正当なものでなければなりません。 したがって、権力に対する法の優位性は、控訴、尋問、決定、正当化の絶え間ない実践に没頭するコミュニティの存在を意味します。 閉鎖的な命令を求めてそれを放棄することは、共同体を解体し、法律を停止することを意味します。 自動化について話すとき、私たちは単純な洗練について話しているのではなく、根本的に異なる形式のガバナンスについて話しています。

法律は機械工と相容れない。 規範は必然的に常に解釈と実行を必要とするため、すべてのケースに適用できる法律はありません。 フェブルアリはこれを説明するために、第二次世界大戦中のオランダのレジスタンスに参加した二人のメンバーの話を取り上げています。 この二人のパルチザンが、村で他の人々の弾圧に専念していた親衛隊隊員を捕らえたという逸話がある。 この男が権力を握ったとき、彼らは彼を殺したいと思ったが、自分たちが正しいことをしているのではないかと疑った。 そこで彼らは司祭のところに行き、ナチスを殺すことは許されるかどうか尋ねました。 司祭は「そうではない」と答えた。

司祭の短い返答には、特に人間や機械には理解できない根拠がすべて含まれています。 さて、司祭は第五戒をそのまま取り上げて殺人を禁じるのではなく、律法の内容を知らせ、例外の入り口となる「現実には」を付け加えます。 普遍法(人を殺してはならない)と、(生きている者が他人を裏切るという)具体的かつ緊急の場合との間で、最も公平な方法で決定するのは両党派にかかっている。 法律が実現するには、まずこれらの特定のストーリーを経る必要があるため、法律を単純に適用することはできません。 これは、フランツ ローゼンツヴァイクが次のように書いたときの意味です。「法は人間に与えられるものであり、人間が法律に与えるものではない」。

ガバナンスのタスクを人工知能に任せることの問題は、偏見や間違いが発生しやすいということだけではありません。 アルゴリズムが完成し、データが洗練されても、自動化システムが人間の解釈能力に匹敵することはありません。 人工知能と人間の知能の違いは量的なものではなく、質的なものです。

もちろん、テクノロジーは、情報の検索や整理などの単調な作業に役立ち、法廷の負担を軽減し、プロセスを合理化することができます。 一方、裁判官の決定は、生成型人工知能システム (ChatGPT など) によって下されるべきではありません。なぜなら、このツールがどのような判例法を形成できるとしても、それが実際に何であるか、つまり正義を与えるということを決して理解することができないからです。

裁判官は法律と具体的な事件を結び付ける役割を果たしており、裁判官はそれぞれの判決において独自の要素を導入する必要があります。 自動的に適用される標準は公平であるかのような錯覚を引き起こす可能性がありますが、実際はその逆であり、異なるケースに同じ解釈が課せられることになります。 正義にはそれぞれの場合に特別な考慮が必要であり、教義が生活の背景に現れるときは危険な瞬間です。 ジャック・デリダは次のように述べています。 F法律予算:「法は計算の要素であるが、正義は計算不可能であるが、計算できないものを使って計算することが求められる。」

Kawata Ichirou

「インターネット愛好家。ビール愛好家。誇り高きテレビの第一人者。邪悪な音楽の専門家。フレンドリーなベーコン ファン。微妙に魅力的なソーシャル メディア中毒者。ウェブ研究者」

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です