弁護士が法廷でChatGPTへの過度の依存から反発に直面



法律事務所レビドー・レビドー・アンド・オーバーマンのニューヨーク州弁護士スティーブン・シュワルツ氏は、アビアンカ航空に対する訴訟を担当する際に、AI言語モデルであるChatGPTを法的調査に組み込んだとして非難を浴びた。この事件にはロバート・マタ氏が関与しており、同氏は2019年にコロンビアの航空会社での飛行中にサービストロリーに負傷を負ったと述べているとCNNビジネスが5月28日に報じた。

弁護士はChatGPTから取得した誤った記録を提出した

訴訟を監督していた裁判官が提出された文書に矛盾と事実誤認を発見したとき、物語は予期せぬ展開を迎えた。 5月24日付の宣誓供述書の中で、シュワルツ氏は法律調査にChatGPTを使用したことを認め、その内容に虚偽の情報が含まれる可能性については認識していないと述べた。さらに、法律調査にAIモデルを使用したのはこれが初めてであると述べた。

裁判官の尋問により、弁護士が提出したいくつかの訴訟は架空のものであり、捏造された引用や不正確な内部引用が含まれていることが明らかになった。さらに、引用されたいくつかの事件は存在しないことが判明し、登録番号が誤って別の法廷陳述に関連付けられた事件も 1 件ありました。

弁護士はデューデリジェンスを行わずにAIチャットボットに依存したことを遺憾の意で表明した。同氏の宣誓供述書では、研究過程で生成AIを使用したことを大いに後悔しており、真正性の絶対的な検証なしにこのような行為を繰り返さないことを誓っていると強調した。

AIが人間に取って代わる可能性についてアナリストが語る

ChatGPT をプロフェッショナル ワークフローに統合することにより、その適合性と信頼性について継続的な議論が巻き起こっています。 ChatGPT のような AI モデルの知能は進化し続けていますが、人間の労働者を完全に置き換える能力については疑問が残っています。ブロックチェーン開発者の Syed Ghazanfer 氏は、ChatGPT の価値を認めていますが、人間の対話の完全な代替としての通信機能には疑問を抱いています。プログラミング言語は、ネイティブの英語では効果的に伝えられない可能性がある要件を満たすために作成されたものであることを強調します。

AI テクノロジーが進歩するにつれて、開発者も実務者も同様に、その機能を活用することと、AI が生成する情報の正確性と有効性を確保することとの間で、微妙なバランスをとらなければなりません。 Steven Schwartz 氏と彼の ChatGPT の使用に関する訴訟は、法的研究やその他の専門的環境における人間の監視と批判的評価の重要性を強調する警告の物語として機能します。

ChatGPTのような AI モデルは特定のタスクの効率化に役立ちますが、不正確さや虚偽の情報のリスクを最小限に抑えるために、人間の経験や徹底的な検証プロセスと組み合わせて使用​​する必要があります。 AI 機能の境界が拡大するにつれて、実務者がそのようなツールを仕事に組み込む際には慎重さと洞察力を働かせることが依然として不可欠です。