ChatGPT の妄想的な参照には学術的誠実性の精査が必要



ニューブランズウィック大学の実験心理学の博士課程学生であるジョーダン・マクドナルドによる最近のブログ投稿では、信頼できる参考文献として提供される引用の 90% 以上が ChatGPT によって作成されたことが示されています。

ニュース報道によると、カナダ心理学会のマインドパッドでは、AI が偽の書誌や参考資料の詳細を作成できるようになり、人が脳内に記憶し保存する情報が AI に含まれるため、場合によっては本物と同じくらいもっともらしいものになる可能性があると述べています。著者。 、タイトル、名前、および適切にフォーマットされたデジタル オブジェクト識別子 (DOI)。

学術研究における人工知能の二重の役割を探る

ただし、学生は元のテキストと、AI によって作成された文法的には正しいが真実ではない参照との対比を明確にするのが難しい場合があり、そのため、学術的な文脈におけるアイデアの独創性を疑うことになります。

この研究には、以下の 6 つのサブ分野における心理学の分野における引用の信頼性の検証が含まれます。心理学では、宗教、動物、社会、臨床、人格、神経心理学の 5 つの分野を研究します。

最終的に、サブフィールドに対して 100% 正確な数値 (ChatGPT によると 300) が生成されましたが、そのうち実際であることが判明したのは 32.3 個だけでした。これは、輪郭を描かれた領域の明らかな傾向です。

学術研究の情熱としての人工知能: 問題点と欠点

ChattGPT は、偽物の発明と正当な発明の両方を提供できます。マクドナルドの研究でも同じことが確認されました。ただし、そのヒントで行われた特定の研究は、ChatGPT で常に引用されているものとは一致しません。

言い換えれば、複雑なモデルのエラーによる物資の節約により、国民はこの単純化に対する信頼を確実に得ることができます。また、学校で必要な実践的なスキルとそのスキルの源についての議論も刺激されます。

教育研究を実施する手段として AI 奨学金の役割が正当化されるかどうかは、専門家をシミュレートする際に AI がどの程度の識別不能性を達成できるかによって決まります。

たとえば、主要な学業課題に人工知能ツールを使用することで証拠を発見できる可能性があります。この情報は、人生のプレゼンテーションにとって重要な場合もあれば、少し乏しいように見える場合もあります。したがって、インテリジェントな AI ツールと教育アプローチについては真剣に検討する必要があります。

学術的誠実さにおける人工知能の利点とリスクのバランスをとる

しかし、この研究は、学校における人工知能に関連する困難を浮き彫りにするだけでなく、特定の状況で使用される場合、教育および研究活動における貴重なツールとしてのそのようなテクノロジーに関する議論を導くものでもあります。

教育者や研究者は、Chat GPT などの AI テクノロジーの制限と機能を認識するだけでなく、より深く理解し、学術基準に影響を与えることなくこれらのテクノロジーを最大限に活用できるようにすることが推奨されます。

マクドナルドによれば、それら(これらのモデル)が計り知れない利点を提供するという事実は、特に興味のある学術的トピックについて学ぶためにその結論のみに依存するようになる場合には、それらを完全に無視するべきではありません。学生の作業にAIが関与していることを示す指標として、学生が経験則に従っていない場合でも、AIによって生み出された矛盾の可能性を示唆しています。

人工知能のさらなる発展には、その応用分野と潜在的な限界を明らかにすることを目的としたさらなる研究が必要です。スカベンジは、AI ベースの盗作やその他の形式の不正行為を検出するための新しい戦術を研究します。

ChatGPT のような人工知能は、学術研究にさまざまな利点をもたらす一方で、分析者や研究者を誤解させる可能性のある文脈から外れた (またはでっち上げられた) 情報を提供するという欠点もあります。

カナダ心理学会のマインドパッドに掲載された研究から得たニュース。