教授によると、人工知能に関するEUの規制に何が入るのか(入っていないのか)。フロリディ



教授によると、人工知能に関するEUの規制に何が入るのか(入っていないのか)。フロリディ

人工知能に関するEU規則草案に関する目的と意見。フロリディのペイの分析

私たちの社会と私たちの機関にとっての課題は、 エルパイスでルチアーノフロリディを書いていますが、技術的な変革ではなく、新しい領域をどのように管理および規制するかです。欧州連合に能力がないシナリオ。

少なくとも2019年7月16日、ウルズラフォンデアライエンが欧州委員会委員長に選出されて以来、人工知能(AI)に関する新しい欧州についてしばらくの間話し合われてきました。その日、フォンデアライエンは、100日以内に、ヨーロッパの倫理的価値観と一致する新しいヨーロッパのAI法案を提案すると約束しました。当時、私は戦略的な理由がそのような野心を正当化したとコメントしましたが、それは当時は現実的ではありませんでした。この戦略はすでにAI倫理専門家グループ(HLEG、私がメンバーであった人工知能に関する高レベルの専門家グループ)を機能させていました。欧州委員会によって設立されたこのグループは、ヨーロッパにおけるAIの倫理的および政策的ガイドラインを発表したばかりでした。次のステップは、これらのガイドラインを立法手段に変換することであることは明らかでした。しかし、すでに行われた作業は、このプロセスがどれほど長くて骨の折れるものであったかを示していました。個人的には、原則を標準に変換するには少なくとも1年はかかると確信していました。他の多くの人と同じように、私はパンデミックを予期していませんでした。ほぼ2年後の今日、2021年4月21日に正式に発足した欧州連合におけるAIの規制に関する暫定草案であるAI Act(AIA)があります。これは世界で初めてのことです。全体として、ドラフトテキストは、AIテクノロジーセクターが、経済、社会、環境の利益のために、EUで安全かつ許容可能な方法で発展することを保証するための良い出発点として評価されました。私はその法的側面にこだわるつもりはありません。そのいくつかは進化する運命にあります。哲学的には、いくつかの制限はありますが、 AIRの基本的なプラス面はたくさんあると思います。

まず、これは指令ではなく規制であるため、一般データ保護規則(GDPR)と同じように、すべてのEU加盟国が採用するだけでなく、実装する必要があります。 GDPRと同様に、RIAも法律の非領域性を前提としています。私たちはポストウェストファリアの世界に住んでおり、AIRは、物理的または法的にどこにいるかに関係なく、すべての俳優に影響を与えます。重要なのは、それがサービスであるかどうかです。たとえば、シンガポールの会社がスペインの会社に提供する自動雇用管理システムは、ヨーロッパ市民に影響を与えます。このポストウェストファリアモードでは、AIの巨人は、新しい法律への準拠を実証する必要がある場合、個々の州ではなくEUに対処する必要があります。 EUは、個人データ(GDPR)の管理だけでなく、AIの実装においても単一の対話者としての地位を確立しています。デジタル主権が危機に瀕しているとき、数には力があると言うのが適切です。世界経済の約6分の1を占める市場を無視する余裕のある企業はありません。ただし、これは、RIAを適用しなければならない企業が、他の国で事業を行う際にそのような高い基準を採用しない理由を説明することがより困難になることも意味します。さらに、RIAは、中国ではなく、おそらく米国でも、カナダから韓国、日本から英国、イスラエルからシンガポールにプラスの影響を与える可能性があり、EUを「模範的なリーダーシップ」の立場に置くことができます。 GDPRですでに起こっているように、AIテクノロジーの優れたガバナンスのために」。優れた立法の枠組みのおかげで、これらの主要なAI諸国との協力が容易になります。 AIAは、GDPRからもう1つの肯定的な要素を継承しています。それは、究極の目標としての人間の尊厳と人権の保護です。残念ながら、AIAはこの人間中心のアプローチを定義する際に時代錯誤的な用語を使用します。つまり、人類を技術開発の中心に置きます。考え方は正しいです。テクノロジーは人類に奉仕しなければなりません。しかし実際には、人間中心主義から人間中心主義へのステップは短く、地球は常に自分自身を中心に置くという人類の執着にどれほど苦しんでいるのかを知っていますが、実際には環境も考慮する必要があります。母なる自然を含む私たちのサービスで。幸いなことに、用語が古くなっていても、基本的な見方は正しいです。AIAは、グリーンテクノロジーとしてのAIの価値を強調しています。これは、持続可能性や汚染や気候変動との戦いに非常に役立つ可能性があります。この点で、IYAはヨーロッパの環境政策を補完するものです。私はそれを緑と青のプロジェクトと呼んでおり、EUはこれを世界中で推進しなければなりません。アプローチの観点から、AIAは、AIのリスクを排除または軽減し、これらの革新的なテクノロジーへの信頼をサポートすることを目的としています。倫理は市場にとって良いことであり、その逆ではないという考えです。まさにこの理由から、AIAはHLEGによって提案された倫理ガイドラインを明示的に採用しています。そしてここで、もう1つの基本的なポジティブな側面を強調する価値があります。この規制は、残念ながら世論の気を散らすようなサイエンスフィクションの憶測に譲歩するものではありません。 AIは、エイリアンの生命体としてではなく、問題を解決してタスクを実行するテクノロジーとしてアプローチされています。したがって、AIAは、権利または義務に関連する法的主観性をAIに帰属させる可能性を排除します。 AIシステムの責任は、それを設計、製造、販売、使用する人類に常に正当に割り当てられています。

よろしいですか?ではない正確に。ドラフトには、導入可能な法的な改善に加えて、修正に値するいくつかの概念上の制限も含まれています。それらを調べてみましょう。

ドラフトは時々曖昧です。重要なケースは、規制全体の重要な概念である高リスクAIシステムの定義です。これは、区別することが望ましいと私が考える2つの意味を明示的に組み合わせたものです。一方では、適切な機能が重要な問題に依存するAIシステムがあります。自動運転車システムを考えてみてください。これは、うまく機能する必要がある優れたものです。一方、AIシステムには、悪用の重大な問題が依存しています。法律で禁止されているリアルタイムの生体認証監視システムの悪用について考えてみてください。使用してはならない悪です。この2つを区別しないと、優れたAIシステムの強制された回復力と、AIシステムの誤用に対して行使しなければならない抵抗とを混同することになります。

その他の場合、ドラフトはあいまいです。たとえば、人間の行動を歪めるように設計されたAIシステムの使用を禁止することについて話している場合など、身体的または心理的な危害のリスクがあります。根本的な意図は受け入れられますが、このアプローチが厳密に適用されすぎると、問題のない多くのAIシステムを禁止するリスクがあります。

最後に、ドラフトの特定の期待は、過度の理想主義に苦しんでいるようです。その好例は、機械学習モデルのトレーニングに使用されるデータベース標準です。これは、とりわけ、関連性があり、代表的で、エラーがなく、包括的である必要があります。実際には、これらは非常に望ましい要件ですが、完全に満たされることはめったにありません。通常は不完全で不正確な省庁のデータベースについて考えてみてください。したがって、これらの基準の満足度が許容できないしきい値について話すことが望ましいでしょう。

AIAはGDPRに参加し、オンラインプラットフォームとサービスを規制するデジタルサービス法とデジタルマーケット法で和解します。数年以内に、この立法アーキテクチャが完成すると、EUは、市民がより良い、より持続可能な方法で生活し、運営できる情報空間を確保することになります。課題がもはやデジタルガバナンスほどのデジタルイノベーションではないことは明らかであり、EUにはこの課題に対する能力がありません。


これは、Sun, 30 May 2021 06:00:56 +0000 の https://www.startmag.it/innovazione/intelligenza-artificiale-regolamento-unione-europea-floridi/Start Magazine に公開された記事の自動翻訳です。