物議を醸している人工知能の応用であるニューロテクノロジーは、プライバシーと人権に関する議論の焦点になりつつあります。
この分野の技術進歩が急速に進む中、国連(UN)も個人の自由を守るための倫理的枠組みを求める声を繰り返してきました。
ニューロテクノロジー: 倫理的問題
大まかに言えば、ニューロテクノロジーは新しい概念ではありません。エンジニアは長い間、人間の脳と神経系をスキャン、修復、強化する技術を開発してきました。
しかし、この分野では最近、強力な機械学習および人工知能モデルが爆発的に増加しており、ニューロテクノロジーが倫理的に物議を醸す領域に押し上げられています。
これらの課題に対処するため、国連はパリでニューロテクノロジーの倫理に関する国際会議を主催しました。このイベントには政策立案者、AI 専門家、市民団体、民間企業が集まり、ニューロテクノロジーを取り巻く倫理問題についての議論が巻き起こりました。
会議に先立ち、ユネスコ事務局長のオードリー・アズーレー氏は懸念を共有した。
「ニューロテクノロジーは多くの健康問題の解決に役立つ可能性がありますが、同時に人々の脳にアクセスして操作し、私たちのアイデンティティや感情に関する情報を生成する可能性もあります。人間の尊厳、思想の自由、プライバシーに対する私たちの権利が脅かされる可能性があります。ユネスコが人工知能に関して行ったように、国際的に共通の倫理的枠組みを確立することが急務である」とアズーレー氏は述べた。
世界中の規制当局がAI業界のルール作りに躍起になっている。 OpenAI のような知名度の高い企業は、 AI 規制に抵抗し始めています。テクノロジーがより密接なものになるにつれて、さらなる意見の相違はほぼ避けられないように思われます。
それは単なる脳チップ以上のものです
しかし、ユネスコ社会科学・人文科学担当副事務局長のガブリエラ・ラモス氏は会議中に、ニューロテクノロジーは見出しを飾る初期の技術だけではないと強調した。
「私たちは、アルゴリズムによって人々の思考プロセスを解読し、人々の意図、感情、意思決定の根底にある脳のメカニズムを直接操作できる世界への道を歩んでいます」とラモス氏は語った。
ニューロテクノロジーに対する世間のイメージは、イーロン・マスク氏のNeuralinkやそのブレイン・コンピューター・インターフェースなどの野心的なプロジェクトによって支配されることがよくあります。しかし、 物理的な介入なしに思考を解釈し操作できるニューロテクノロジーのより慎重な応用はすでに私たちの中にあります。
「人工知能を追加すると、神経テクノロジーを強化することになる」とユネスコの報告書の筆頭著者であるマリアグラツィア・スクッチャリーニ氏は述べた。
AI 研究者は、主に有益な意図を持って新しいテクノロジーを開発しています。たとえば、ある研究グループは人工知能を使用して、被験者の脳内の電気信号に基づいて被験者が聞いている内容を解釈しました。
しかし、研究者らは、将来の開発により、そのような技術が自主的な協力の必要性を回避できるようになる可能性があると警告した。
マインドコントロール技術
興味深いことに、前述の心を読むニューロテクノロジーは、広くアクセス可能な AI ツールを使用しています。研究チームは、人気のある ChatGPT チャットボットを動かす GPT-4 の前身である OpenAI の GPT-1 を使用してモデルを構築しました。
また、オンラインで無料で入手できるさまざまなアルゴリズムを使用し、Reddit の文やニューヨーク タイムズのポッドキャストのトランスクリプトを含むデータセットを使用してモデルをトレーニングしました。
このような進歩は、AI 関連のプライバシー問題が将来の憶測ではなく、即時の対応が必要な緊急の懸念事項であることを強調しています。
例えばOpenAIは、同意なしに個人データを収集した疑いで集団訴訟に直面している。多くの大手ソーシャルメディア企業が、自社のAIモデルをトレーニングするためにユーザーデータを誤って処理したとして告発されている。
人工知能がインフォームド・コンセントなしに人々を読み取って操作するために使用されるケースは、すでに現実となっています。これらの懸念に対処するには、強力な倫理ガイドラインと積極的な規制措置が必要です。
AI による脳信号操作の進歩が速すぎる、ユネスコが警告最初にBeInCryptoに登場しました。