AIエージェントによる不正行為の台頭
AIエージェントの進化により、学生がオンライン課題を完了させる方法が劇的に変化し、教育現場での不正行為がこれまで以上に容易になっています。OpenAIのChatGPTやPerplexityのAIアシスタントといったツールは、エッセイの作成からオンラインクイズの解答まで、多岐にわたる学業タスクを自動でこなすことが可能です。これにより、教師は学生がシステムを「攻略」する新たな方法に追いつくのに苦慮し、学生自身も「学び方を学ぶ」機会を失うリスクに直面しています。
テック企業のマーケティングと責任の所在
一部のテック企業は、自社のAIツールが教育現場でどのように利用されているかについて、複雑な姿勢を見せています。例えば、Perplexityは、AIエージェント「Comet」が多肢選択式の宿題をこなす様子や、クイズを代行する様子を広告で示唆していました。PerplexityのCEOは、AIエージェントがオンライン宿題を完了させる動画を再投稿しつつも、「絶対にこんなことはしないでください」と皮肉を込めてコメントするなど、責任を学生に転嫁する傾向が見られます。
教育者たちの懸念とプラットフォームの対応
教育者たちは、AIエージェントが学生になりすまして課題を提出する事例に警鐘を鳴らしています。特に、Canvasのような学習管理システム(LMS)では、AIエージェントがエッセイを生成・提出したり、クイズを完了させたりする動画が共有され、その悪用可能性が浮き彫りになりました。ある大学のインストラクショナルデザイナーであるYun Moh氏は、Instructure(Canvasの親会社)に対し、AIエージェントが学生になりすますことをブロックするよう求めましたが、同社はこれを技術的な問題ではなく「哲学的な問題」と捉え、技術的な解決策は困難であるとの見解を示しました。
技術的障壁と「宿題ヘルプ」機能
Instructureは、外部のAIエージェントや学生のデバイス上で動作するツールを完全にブロックすることはできないと説明しており、AIエージェントの行動パターンが変化するため、その検出と阻止は「極めて困難」であると述べています。また、GoogleのChromeブラウザに一時的に導入された「宿題ヘルプ」ボタンは、Google Lensを通じてクイズの質問などを検索しやすくするもので、これも教育者から不正行為を助長するとして批判を受けました。Googleはこの機能を一時停止しましたが、将来的な再導入の可能性も示唆しています。
責任あるAI利用への模索
教育者たちは、AI企業に対し、自社製品の責任を負い、教育現場でのAIエージェントやその他のツールの使用方法について、より多くの管理権限を与えるよう求めています。OpenAIは、不正行為から距離を置こうとする一方で、AIを活用した教育の未来を維持しようとしています。同社は、答えを提供しない「学習モード」をChatGPTに追加し、AIは「回答マシン」として使われるべきではないと主張しています。Instructureも同様に、AIツールの「取り締まり」ではなく、企業、教育機関、教師、学生間の「協力的な努力」を通じて、責任あるAI利用のガイドラインを定義することを目指しています。
結論:教師への負担増大
しかし、これらのガイドラインが確立される前に製品がリリースされ、取引が締結されている現状では、最終的に倫理的なAI利用の実施と監視の負担は、現場の教師たちにのしかかることになります。AIの進化は止まらず、教育現場は「ワイルドウェスト」のような状況に直面しており、後戻りはできない状況です。
元記事: https://www.theverge.com/ai-artificial-intelligence/812906/ai-agents-cheating-school-students
