解説|田中博之 生成AIの不適切な使い方と適切な使い方 【「生成AI利用ガイドライン」徹底解説 #3】
生成AIが世界中で急速に普及していることを受けて、2023年7月、文部科学省は「初等中等教育段階における生成AIの利用に関する暫定的ガイドライン」(以下、ガイドライン)を公表しました。今後、学校で、家庭で、ガイドラインに沿った適切な使い方をしていくためのポイントを、AIの教育利用について研究を進めている早稲田大学の田中博之教授に聞きました。第3回目は、学校での不適切な使い方と適切な使い方です。
田中博之(たなか・ひろゆき)
1960年北九州市生まれ。大阪大学人間科学部卒業後、大阪大学大学院人間科学研究科博士後期課程在学中に大阪大学人間科学部助手となり、その後大阪教育大学専任講師、助教授、教授を経て、2009年4月より現職。2007~2018年度、文部科学省の全国的な学力調査に関する専門家会議委員。現在、21世紀の学校に求められる新しい教育を作り出すための先進的な研究に取り組んでいる。『NEW学級力向上プロジェクト』(共編著、金子書房、2021)など著書多数。
■ 本企画の記事一覧です(週1回更新、全3回予定)
●解説|田中博之 生成AIの意義と夏休み中の家庭での使い方<子ども用チェックリスト付き>
●解説|田中博之 学校で使用する前に確認したい4つのポイント
●解説|田中博之 生成AIの不適切な使い方と適切な使い方(本記事)
目次
生成AIの不適切な使い方とは?
文部科学省のガイドラインには、生成AIの利用にあたって「適切でないと考えられる例」と「活用が考えられる例」が紹介されています。
まず、「適切でないと考えられる例」です。8例挙げられていますが、この中で特に注目して欲しいのは①から④です。
ガイドラインの内容を引用しながら解説します。
生成AIを使って何をしてよくて何がダメなのかを児童生徒に意識させるような教育、つまり、AIリテラシー教育をまずは行う必要がありますので、この項目が1番目に書いてあるのは、非常に有意義なことだと思います。教科の授業で使う前に、このような生成AIを適切に活用する力を育てる授業を、最低1時間でも行うことが大切です。そのときにメリットやデメリットを、例を挙げながらわかりやすく教え、この連載の第1回でご紹介した子ども用のチェックリストも使いながら、子どもの意識を高めることが重要です。
ただ、ガイドラインでは、育成するものを「情報モラルを含む情報活用能力」に限定している点は、少々配慮する範囲が狭いと思います。安易に使うと、自分自身の思考力や問題解決能力などが育たなくなり、危険であることを子どもたちに十分理解させる必要があります。
これもとても大切なことですが、コンクール用の作品でなければいいわけではなく、夏休みの宿題や学校で出される課題についても言えることです。夏休みの宿題で、文章に関わるものにはレポート、小論文、日記、読書感想文など、いろいろあります。このような課題に対しても、生成AIを使うことは適切ではありません。それは、小中高校生のうちに身に付けなければいけない、思考力や問題解決力が育たなくなるからであると、しっかりと子どもに伝える必要があります。
これは、国語や音楽、図工、美術の授業のことを指しているのだと思います。ここでは感性や独創性が挙げられていますが、それ以外に、思考力、創造性、想像力、問題解決力も育たなくなります。ですから、安易に創作活動を生成AIに任せてはいけないのです。生成AIは、プロンプト(指示文)さえ書けば、条件に合う作品をつくってくれますが、創作の場面では、「最初は自分で考える」という大原則を教える必要があります。例えば、生成AIに文章を書いてもらうのであれば、最初は自分でテーマや構成、あらすじ、表現技法などを考えてみることが重要です。
これは社会と理科が該当するのだと思いますが、調べ学習においても、調べる観点や方法などを、「まずは自分で考える」ことが重要です。自分たちで考える前に、「何を調べるかを生成AIに聞いてみよう」などの丸投げはするべきではありません。そして、最後は自分で責任をもってまとめる、自己責任の原則もしっかり伝える必要があります。
生成AIの適切な使い方は?
次に、「活用が考えられる例」の中で、解説が必要なのは①~③だと思います。詳しくご説明します。
生成AIには、事実と全く異なる内容、ハルシネーション(Hallucination)といわれる幻覚のように思える嘘を、本当のことのように答えてしまう癖があります。
生成AIは回答するときに、その確かさを、0%から100%まで判断しながら、答えを出しています。人間の場合は、確かさが10%だと「間違っているかもしれないけど……」と言うと思うのです。30%だったら、「かもね」と最後に付けるかもしれません。しかし、生成AIは、確かさが5%でも100%でも、同じように回答するようにプログラムされています。そのため、確かさが10%でもあたかも本当のことのように、誤った情報や不正確な情報を出してくるのです。
試しにChatGPTに私の著作物を尋ねてみると、まったく関係ない本の名前を出してきます。ですから、生成AIの誤りを含む回答を教材にして使用し、児童生徒にその限界を教えるのは重要なことです。
現状では生成AIを推進すべきなのか、禁止すべきなのかは、国によって判断が分かれており、これは実際に社会で議論が続いているテーマです。中学校ならば公民、高等学校ならば公共や公民の授業の中に、社会的な問題について議論する時間があります。この時間を使って、生成AIを素材に、社会的な意義や問題点、メリットやデメリットなどについて生徒が主体的に考え、議論する機会をつくるといいと思います。
ChatGPTは、グループの議論の中で出てこなかったこと、足りない視点や新たな観点を見つけるのに役立ちます。私もそのような使い方をよくします。
これはいいことなのですが、少し補足しますと、必ず「最初に」グループの考えをまとめたり、自分たちでアイデアを出したりする活動をしてから使って欲しいと思います。
例えば、道徳の授業では、議論を活性化するために、子どもたちに異なる視点、多様な価値観に気づかせたいはずです。しかし、最近は、道徳の授業の中で、ユニークな意見、多様な意見を出す子どもが減り、反対に、先生が喜びそうな正解を出そうとする子どもが増えていないでしょうか。
道徳の授業で、多様な意見がなかなか出てこないときには、こんな使い方ができます。
グループに1台タブレットを置き、ChatGPTに「子どもが打ち込んだ意見と違う価値観、違う視点、違う意見をわざと出して、子どもと議論をするように会話をしてください」と指示するのです。それにより、ChatGPTがわざと違う視点の意見を出してくるので、それを元に子どもたちの議論を活性化することができます。
最新のChatGPT(GPT-4)では、Custom Instructions(一括指示設定)という機能が加えられて、このような指示を事前に生成AIに理解させることが可能になりましたので、ぜひ利用してみてください。
取材・文/林 孝美