人工知能を規制する法律が上院で審議入り。 要点と課題を参照 – Jovem Pan

ブラジルでの人工知能の使用が上院で議論される

で手続きを開始した 連邦上院 の使用を規制するという提案 人工知能PL 2338/2023、国内でのテクノロジーの使用を規制し、その開発と使用に関する倫理ガイドラインを確立することを目的としています。 合計 45 条からなるこの文書は、基本的権利を保護することを目的として、ブラジルにおける人工知能 (AI) システムの開発、実装、および責任ある使用に関する国家的な性質の一般基準を確立しています。人類、民主主義体制、科学技術の発展のための安全なシステムと信頼できるシステム。

PL は次のように構成されています。 AI規制における14の主要な立場:

  1. 人工知能システム: さまざまな程度の自律性を持つコンピュータ システム (第 4 条、I)。
  2. 人工知能システムのサプライヤー: 直接または注文を受けて人工知能システムを開発する者 (第 4 条、II)。
  3. 人工知能システムオペレーター: 商業目的で人工知能を搭載したソフトウェアを使用する者 (第 4 条、III)。
  4. 管轄当局: 国内全域でこの法律の遵守を確保、適用、管理する責任を負う連邦行政の機関または団体 (第 4 条 V)。他国の同様の当局と協力する場合がある (第 32 条 V)。
  5. 人々の権利: 企業が AI システムとどのようにやり取りするのか誰もが疑問に思うかもしれません。
  6. 人工知能システムのリスク評価: これは、ソフトウェアの開発後、市場での販売前に、供給者によって予備的な方法で実行されなければなりません(第 13 条)。
  7. 人工知能システムのガバナンス: AI を備えたシステムを作成または使用する企業は、社内および社外のすべての領域における情報セキュリティを含む内部プロセスを確立する必要があります (第 19 条、VI)。
  8. アルゴリズムの影響の評価: 高リスク AI システムを作成または使用する企業は、技術的、科学的、法律的知識を持つ独立した企業および専門家と監査を実施し、報告書を発行する義務があります (第 23 条)。
  9. 公的責任: AI を活用したシステムを使用した結果、誰かに損害を与えた企業は、そのシステムがどれほど自律的であるかに関係なく、必ず賠償をしなければなりません。
  10. 優れた実践とガバナンスの規範: 内部および外部とは、人工知能ガバナンス プログラムの作成に加えて、AI の作成と使用に関連するすべてを管理するための手段です (第 30 条)。
  11. 重大インシデントの報告: 企業は重大なセキュリティインシデントの発生を管轄当局に報告する必要があります。 (31節)
  12. 罰金およびその他の罰則: 法律に違反したり、事件を起こした企業は、最高 5,000 万レアルの罰金を支払うか、LGPD と同様の線量測定に従う管轄当局によって課されるその他の制裁を支払うことができます (第 36 条)。
  13. AI を使用してソフトウェアをテストするための国内環境: 監督された実験的規制環境 (規制サンドボックス)。管轄当局は、それを要求し、指定された要件を満たす主体に対して、人工知能のイノベーションのための実験的規制環境の運用を承認できます。 (s.38)。
  14. 公開人工知能データベース: 商業上および産業上の機密に準拠して、影響評価の公的文書を含む、一般にアクセス可能な高リスク人工知能データベースを作成および維持するかどうかは、管轄当局の責任です (第 43 条)。

AI規制はすでに国際的に一般的になっています。 一部の国ではすでに人工知能に関する特定の法律が制定されていますが、AI の規制に関しては、各国特有のニーズや特性に応じてアプローチや目的が異なる可能性があることに留意する必要があります。 いくつかの国は次のとおりです。

  • 欧州連合 – 一般データ保護規則 (GDPR) – 規則 2016/679 (EU) – 自動決定によるデータ処理の仕様を含む、個人データの保護に関する規則を確立します。
  • 私たち – 人工知能技術開発およびイノベーション法 (IAIDTA) – 法律 115-232 – は、米国における AI の開発と使用に関する国家戦略を確立します。
  • カナダ – カナダ人工知能戦略 – カナダにおける AI の開発と使用に関する国家戦略を確立します。
  • フランス – 司法改革のための方向性およびプログラミング法 – 法律番号 2019-222 – フランスの司法制度におけるアルゴリズムと AI の使用に関する規則を定めています。
  • 中国 – 次世代人工知能の開発計画 – 中国における AI 開発の目標とガイドラインを設定します。
  • 日本 – Society 5.0 戦略 – AI が重要な要素と考えられる日本社会の将来ビジョンを定義します。

人工知能 (AI) 法に関連していくつかの課題があることに注意してください。 の一部 主な課題 含む:

  • アップデートと適応:AI とそのアプリケーションの急速な進化により、法律を最新の状態に保ち、技術の変化に適応するという課題が生じています。 AI の急速なペースに合わせて規制を確実に進めることが、効果的かつ関連性を維持するための鍵となります。
  • 偏見と差別: AI は、トレーニング データに存在する偏見と差別を複製し、増幅することができます。 この課題に対処するには、アルゴリズムのバイアスを特定、軽減、防止するための対策を確立し、AI システムによる意思決定が公正かつ公平であることを保証する必要があります。
  • 責任と責任: 自律型 AI システムによって行われるアクションや意思決定に対する責任を判断することは、複雑な課題です。 AI 法は、テクノロジーの使用から生じる危害やマイナスの結果に対する責任の配分と法的責任に関する問題に対処する必要があります。
  • コンプライアンスと執行: AI 法の遵守を確保し、コンプライアンスを適切に執行することは重要な課題です。 組織や専門家が規制を遵守することを保証するには、効果的な監視および監視メカニズムを開発する必要があります。
  • 国際協力:AIは国境を越え、地球規模での協力と法の調和という問題を引き起こします。 国を超えて共通の基準やガイドラインを確立することは困難な場合があり、AI 法の相互運用性と互換性を確保するには協力的な取り組みと国際協定が必要です。
  • 教育と意識: AI とその影響についての教育と認識を促進することは、継続的な課題です。 AI の技術的、倫理的、法的側面について専門家や一般の人々を教育し、テクノロジーについてより広範で情報に基づいた理解を可能にする適切な教育リソースを提供する必要があります。

これらの課題の他に、もう 1 つの非常に重要な点があります。 国民会議 そしてその 学際性または学際性。 AIはテクノロジー、倫理、社会などさまざまな分野に及びます。 法律と政治。 ただし、PL 2338/2023 の重要な点は、 IT 専門家の不在または関与がほとんどない 当時の委員会での議論の中で。 本文の29ページにある、委員会を構成したメンバー(実際には悪名高い法律知識を持っている)のリストに見られるこのギャップは、たとえプロセス中に相談を受けたとしても、学際的なアプローチに反しており、それが質の高さを正当化している。条文には、実際の遵守を確保するために規制の際に尊重することも重要な技術的な点が欠けています。 だから私のビデオを見てください インスタグラム @davisalvesphd私が説明するところ ブラジルにおける人工知能規制の技術的限界

したがって、AI 法の起草には、技術的、倫理的、社会的、法的問題が適切に考慮されるように、さまざまな分野の専門家が参加する学際的なアプローチが必要であることに議論の余地はありません。 立法議会での議論が始まる今、IT専門家の参加を期待します。 しかし、PL 2338/2023 の開発に携わった人々がこの主題に関して行った多大な労力と努力は賞賛に値します。 確かに、我が国にとって大きな前進です。 委員会の皆さん、おめでとうございます!

この主題についてさらに詳しく知りたいですか、質問やコメントがありますか、あるいはこの主題に関するあなたの経験を共有したいですか? Instagram で私に書いてください: @davisalvesphd

Kawata Ichirou

「インターネット愛好家。ビール愛好家。誇り高きテレビの第一人者。邪悪な音楽の専門家。フレンドリーなベーコン ファン。微妙に魅力的なソーシャル メディア中毒者。ウェブ研究者」

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です