人工知能 (AI)の分野における研究の急速な進歩に伴い、教育におけるこのテクノロジーの使用、特に学生がなどのツールを利用して課題やアンケートへの回答を得る可能性について多くの議論が行われています。
現在、 Deltafolhaが実施したテストでは、AI が非常に進歩しており、 (ENEM)の受験者のほぼ 80% よりも良い結果を得ることができたことが示されました。
ENEM では AI が学生より良い結果を出した
Folha de S.Paulo が発行したレポートによると、ENEM 受験者であれば、ChatGPT の客観的テストの平均点は 612.3 点となります。このような結果により、 AI は他の学生の 78.9% を上回り、人間科学の学生の 98.9%、言語とコードの受験者の 95.3% を上回ります。このロボットは自然科学の学生の94.6人も上回った
結果は驚くべきもので、ロボットが最も切望されるコースのいくつかに参加できる大きなチャンスがあることを示していますが、 AI は依然として数学の問題という障害を克服する必要があります。このテストでは、 人工知能は精密科学分野の質問で受験者の 27% を上回る成績しか得られませんでした。
この研究では、2017 年から 2021 年の間に実施された ENEM テストが使用され、ロボットは合計 1290 の質問にポルトガル語で答えました。この目的を達成するために、ChatGPT のオリジナル バージョンである GPT-3.5 は、人気のあるロボットを作成した会社である OpenAI 自体が提供するパフォーマンス分析ツールと組み合わせて使用されました。
テストの人工知能スコアの計算には、ENEM の責任団体であるINEP 補正システムが使用されましたが、これは正答数を正確には考慮しませんでした。 AI によって回答されたすべての質問は、項目応答理論(IRT) として知られる方法を経ており、簡単な質問に正解し、難しい質問に不正解の生徒に利益をもたらします。これは、有名な「推測を外す」ことを防ぐことを目的としています。
ChatGPT がまさにインターネットを使用して最も多様な質問に対する答えを探す能力で有名であることを考えると、人間科学の問題で良い結果が得られることはすでに予想されていました。ウェブサイト Guia do Estudante が正しく指摘しているように、ロボットは単にオンライン ネットワークを検索し、インターネット上にすでに存在する情報を使用して質問に答えることができます。
一方、精密科学の成績が低いのには理由があります。テクノロジーが数学の問題を扱うのがまだ難しいからです。 OpenAIはすでにこの問題を公に認めており、年初にはこの分野でツールの改善に取り組んでいることも発表した。
最後に、ロボットは、標準ポルトガル語の使用を考慮して、2 人の教師によって評価されるを書く必要もありました。テーマへの適合性。テキストの構造とレパートリーの使用。一貫性;凝集;そして介入提案。アドリアーノ・チャン教授は、ChatGPT テキストに 760 のスコアを与え、テキストには一貫性があるが、他の項目が欠けていると指摘しました。ジェシカ・ドルタ教授はロボットに 640 点を与え、同様の観察を行ったが、凝集性と提案された介入に関して減点した。
