メタに限らず。 AI倫理はもはやビッグテックの優先事項ではないのでしょうか?



メタに限らず。 AI倫理はもはやビッグテックの優先事項ではないのでしょうか?

マーク・ザッカーバーグ氏のメタ社には、人工知能(AI)の責任ある設計と使用を専門とするチームがなくなる。従業員に何が起こるのか、そして Microsoft、Anthropic、Google、OpenAI などの他の競合他社がどのように動いているかは次のとおりです。

人工知能 (AI) をすべての人にとって前向きな革命にすることを約束していましたが、現在、マーク・ザッカーバーグのメタは、責任、透明性、セキュリティ、プライバシーを含む5 つの柱に基づいてAI の責任ある設計と使用を保証するために特別に設計された責任ある AI 部門チームを解体しました。 。

どうやらレイオフはなく、社内の他のグループに配置転換され、そこで - Meta の報道によれば - 人工知能に関連する被害を防ぐために働き続けることになるようだ。

META の AI チームはどうなるでしょうか?

FacebookとInstagramを所有する同社の広報担当者よると、責任あるAIチームのほとんどのメンバーは生成型AIに移行し、「責任を持って人工的なインテリジェンスを開発し使用するというメタ社の部門横断的な取り組みを引き続き支援する」予定だが、他のメンバーは問題に対処する予定だという。 AI インフラストラクチャ。

プレスリリースによると、同社はスタッフを主要な製品や技術の開発に近づけるつもりで、「当社は引き続きAIの安全で責任ある開発を優先し、投資し続けており、これらの変更により将来のニーズを満たすことが可能になる」としている。

解体に関する警告

実際には、 The VergeはBusiness Insiderを引用して、チームはすでに年初にレイオフによる再編を受けており、それによって部門はすでに大幅に弱体化していたと回想している。

さらに、このニュースを最初に伝えたThe Informationによると、2019年に設立されたチームには「自主性がほとんどなく、その取り組みは実施する前に利害関係者との長い交渉を経る必要があった」という。

META の AI 製品

昨年2月、 Metaは「より民主的な」AIを実現するためのLlama人工言語モデル(後にLlama 2に進化)を発表し、10月にはすべての広告主向けに画像の背景や書かれたテキストのバリエーションなどのコンテンツを作成できる生成人工知能ツールのリリースを開始した。

Responsible AI チームは、企業のモデルが適切に多様な情報を使用してトレーニングされているかどうかなど、AI トレーニングのアプローチに関する問題を特定し、不適切な素材を防止またはブロックする必要がありました。

解雇とメタ(およびそれ以降)への交代

メタ社の決定は、ザッカーバーグ氏が「効率化の年」と呼んだ時期、つまり人員削減、チームの合併、社内の再配置などが行われた一年の終わりに下された。

世界中の規制当局が AI の境界線を確立しようとしている現在、その安全性の確保は主要な業界関係者にとって優先事項となっています。たとえばマイクロソフトは、 昨年3月に(従業員総数1万人削減の一環として)AI専任の倫理・社会チーム全体を解雇した後、7月に立場を逆転させ、Anthropic、Google、 OpenAI は、AI の進歩のためのセキュリティ標準を定義するために特別に設立された業界団体です。


これは、Tue, 21 Nov 2023 14:41:09 +0000 の https://www.startmag.it/innovazione/non-solo-meta-letica-dellia-non-e-piu-una-priorita-delle-big-tech/Start Magazine に公開された記事の自動翻訳です。