解説|田中博之 AIリテラシー教育をどのように進めればいいのか? 【「生成AI利用ガイドライン」徹底解説 #5】
生成AIが世界中で急速に普及していることを受けて、2023年7月、文部科学省は「初等中等教育段階における生成AIの利用に関する暫定的ガイドライン」(以下、ガイドライン)を公表しました。今後、学校で、家庭で、ガイドラインに沿った適切な使い方をしていくためのポイントを、AIの教育利用について研究を進めている早稲田大学の田中博之教授に聞きました。第3回目までの記事が好評だったため、連載を2回延長することにしました。第5回目の今回のテーマは、AIリテラシー教育をどのように進めればいいのかです。
田中博之(たなか・ひろゆき)
1960年北九州市生まれ。大阪大学人間科学部卒業後、大阪大学大学院人間科学研究科博士後期課程在学中に大阪大学人間科学部助手となり、その後大阪教育大学専任講師、助教授、教授を経て、2009年4月より現職。2007~2018年度、文部科学省の全国的な学力調査に関する専門家会議委員。現在、21世紀の学校に求められる新しい教育を作り出すための先進的な研究に取り組んでいる。『NEW学級力向上プロジェクト』(共編著、金子書房、2021)など著書多数。
■ 本企画の記事一覧です(週1回更新、全5回予定)
●解説|田中博之 生成AIの意義と夏休み中の家庭での使い方<子ども用チェックリスト付き>
●解説|田中博之 学校で使用する前に確認したい4つのポイント
●解説|田中博之 生成AIの不適切な使い方と適切な使い方
●解説|田中博之 生成AIの活用で育成したい資質・能力とは?<子ども用の自己評価シート付き>
●解説|田中博之 AIリテラシー教育をどのように進めればいいのか?(本記事)
目次
AIリテラシー教育とは?
「AIリテラシー教育」とは、生成AIに関する仕組みや長所・短所を理解するとともに、対話生成とリスク回避、ファクトチェックのスキルを身に付け、生成AIを社会的公正と人類の福祉のために活用することを志向する価値観や道徳性を育てる教育のことです。この言葉自体は、ガイドラインの本文には書かれていないのですが、別添資料の中に出てきます。
さらに、ガイドラインでは「あくまでもパイロット的な取組であり、全国展開を前提とするモデル事業ではない」という前提で、生成AIを活用する際の順序を示しています。
①生成AI自体を学ぶ段階(生成AIの仕組み、利便性・リスク、留意点)
②使い方を学ぶ段階(より良い回答を引き出すためのAIとの対話スキル、ファクトチェックの方法等)
③各教科等の学びにおいて積極的に用いる段階(問題を発見し、課題を設定する場面、自分の考えを形成する場面、異なる考えを整理したり、比較したり、深めたりする場面などで生成AIの活用等)
④日常使いする段階(生成AIを検索エンジンと同様に普段使いする)
国語、算数、理科、社会などの教科領域で生成AIを活用する前に、①と②の部分、つまりAIリテラシーを子どもにしっかりと身に付けさせる必要があります。
AIリテラシー教育の6つのポイント
現時点では、AIリテラシー教育について、どういう内容で、どういう目標で、こういう教材で行うように、などがガイドラインには書かれていないのです。それは多分、今後作られるであろう、ガイドラインのバージョン2に、 出てくるのかもしれませんが、2023年度から生成AIの活用を始めたい学校のために、AIリテラシー教育の6つのポイントをご提案いたします。
1 AIのしくみの理解
1つ目は、生成AIのしくみの理解です。生成AIはなぜ、人間と自然な言語で対話ができるようになっているのかを理解する必要があります。もちろん、大学の工学部レベルの話を求めているわけではありません。ガイドラインの記述を使えば、「あらかじめ膨大な量の深層学習によって構築した大規模言語モデルに基づき、ある単語や文章の次に来る単語や文章を推測し、『統計的にそれらしい応答』を生成する」ということをわかりやすく説明し、生成AIは人間と対話ができるようにと約60年かけて発展してきた高度なコンピューターのソフトウェアであることを理解させるといいと思います。
2 長所の理解
2つ目は、長所の理解です。生成AIの長所は、人間が知的な課題解決、問題解決、創造などをするときに、パートナーとして支援してくれることです。例えば、人間が目的地まで長い距離を移動しようとしたときに、自転車や車があれば、人間を助けてくれますから短時間で遠くまで行けるようになります。それと同じように、人間が自分で考えながら、生成AIと対話をしていくことで、知的なパートナーとして活動を支えてくれますので、より良い文章、より高度な問題解決などができるようになります。
ただし、ビジネスの世界では業務の「効率化」が長所の一つとなりますが、学校では子どもたちに効率化を図るための使い方をさせる必要はないと思います。なぜなら、子どもたちが学習場面で生成AI を使うときには、AIに学習課題を丸投げして楽をするのではなく、自分で考えることが重要だからです。
3 短所の理解
3つ目は、短所の理解です。最近、アメリカではChatGPTを開発したOpenAI社が作家などから、無許可で著作物を機械学習させたのは著作権の侵害ではないか、ということで、複数の訴訟を起こされています。今後は、著作権が切れていない著作物については、勝手に生成AIに読み込ませることを禁じる法律ができるかもしれません。
ですから、画像でも文章でも、他者の著作物を生成AIで勝手に使うと、著作権を侵害する可能性があることを、生成AIを使い始める前に、子どもに理解させる必要があります。中学校であれば裁判事例を学んだりして学習するといいと思います。
また、生成AIから個人情報が漏洩する可能性があることも知っておく必要があります。ChatGPTの場合、入力した個人情報を機械学習させないように設定することができますが、その設定をしたからといって、現時点では本当にそのような処理がされているのかを確かめることができません。やはり、使う側で注意し、個人の名前、住所、電話番号などを入力しないことが大切です。それに加え、友だちに関する噂話、友だちの失敗談なども書き込まないことが大切です。どこかに情報が漏洩し、広がってしまう可能性があるからです。
もうひとつ、最大の短所として覚えておきたいのは、子どもが生成AIに課題解決を丸投げすると、思考停止になり、創造力などの子どもの資質・能力が育たなくなることです。このような短所については、具体例を挙げて話すといいと思います。
4 道徳的な行動
4つ目は、道徳的な行動です。生成AIは人間ではありませんから、人格がないですし、感情を持っていません。だからといって、対話をするときに、使う側の人間が暴言を吐いてもいいわけではないと私は考えます。AIを知的パートナーとして尊重し、人間同士でコミュニケーションを図るときと同じように、礼儀やマナーを守る必要があります。例えば、対話はできるだけ丁寧語を使い、生成AIを誹謗中傷するような言葉、例えば、「バカ、ボケ、カス、お前は使えない」などの書き込みはするべきではありません。なぜなら、生成AIに対していつも暴力的な言葉を投げる子どもは、人間に対しても礼儀やマナーを守らなくなる可能性があるからです。
逆に、「自分では思いつかなかったアイデアを教えてくれて、ありがとう」などと入力すると、やや直訳調の形式ばった表現ですが、「あなたのお役に立ててうれしいです。これからも、一緒に頑張りましょう。応援しています」などといった温かい励ましを返してくれることがあります。もちろん、生成AIはこうしたポジティブな回答をするように機械的に訓練されているだけなのですが、それを理解した上でなお、人間と生成AIが励まし合ったり、感謝し合ったりする温かい交流をして知的創造過程を意欲的に進めていくことを否定してはならないと考えます。
このようにして、生成AIに対する礼儀やマナーを大事にしながら、AIと協働的に学んでいく姿勢を身に付けることは、その子どもの道徳性を育てるという意味で必要なことだと思います。
それから、画像生成AIに、子どもがふざけて公衆道徳に反する言葉を入力する可能性があります。そうすると、生成AIに制限がかかっていたとしてもそのギリギリのところで、子どもに見せるには不適切な画像が生成されてしまうことがあります。それを防ぐには、道徳的、法令順守的な行動を取るべきであることを子どもたちに教えることが大切です。
5 社会的倫理観
5つ目は社会的倫理観です。生成AIは全世界の人が使えるわけではありません。「使う人」、「使わない人」だけではなく、「使える人」と「使えない人」もいます。発展途上国と経済的先進国の間では、すでにAI格差が生じつつあります。格差は今後、日本国内にも生じてくる可能性があります。子どもの貧困が問題視されていますので、行政が何らかの措置を講じなければ、経済的に困窮している家庭の子どもたちは有料版の生成AIを使えないかもしれません。
生成AIは知力ですから、それを使うことで人間の力をさらに高めてくれます。生成AIによる恩恵を受けられる人と、受けられない人の知的な解決能力の差が大きくなってくると、将来、就職や給料にも差がついてくる可能性があります。
だからこそ、中学生以上の子どもたちは、公民や公共の授業を通してAI格差の問題について理解し、世界には「使えない子ども」がいるかもしれないことを知っておいてほしいですし、社会情勢に常に関心をもち、世の中にある様々な格差を是正するためにはどうしたらいいのかを考える機会をつくっていく必要があります。
6 危機察知力・危機回避力
6つ目は、危機察知力や危機回避力に関する学習能力です。ガイドラインの本文にはAIリテラシー教育という言葉はなく、AIリテラシー的なことは「情報モラル」に含まれています。そして、「情報モラルを含む情報活用能力の育成について、生成AIの普及を念頭に一層充実させる」と書いてあります。
ただ、情報モラル教育の中身を見てみますと、「情報には誤ったものや危険なものがあることを考えさせる学習活動」が含まれていますが、「生成AIを使うことによる危険を察知して回避するための行動力をつけるように」とは書かれていないのです。これは文部科学省の判断の誤りだと私は思っています。なぜなら、情報モラルを知っていても、危険の察知も回避もできないからです。
例えば、スマホやSNSの普及に対応して、学校ではこれまで情報モラル教育を行ってきました。しかし、子どもを騙し、外に誘い出すことが目的で近づいてくる大人(犯罪者)に対して、「子どもはSNS上でモラルを守り、丁寧に、思いやりの心をもってやりとりをしなさい」とでもいうのでしょうか。諸外国ではスマホやSNSの利用に関して子どもにどんな教育を行っているのかを調べてみたところ、イギリス、カナダ、オーストラリア、アメリカなどでは、安全教育(safety education)を行っています。世界の常識は安全教育なのです。モラル教育ではありません。
一方で、中央教育審議会の令和4年2月7日「第3次学校安全の推進に関する計画の策定について(答申)」を見ますと、「児童生徒等が被害に遭うSNS に起因する犯罪や、性犯罪・性暴力への対策については、現代的な課題として、安全教育の中で柔軟に扱うことも重要である」と書いてあります。同じ省内でもリスクマネジメントの専門家が集う特別部会では、「安全教育」の重要性を正しく認識しています。
これから生成AIを活用していくにあたり、情報モラルは大切だと思いますが、それだけでは限界がありますので、ぜひ安全教育をプラスして、「情報モラル・安全教育」とすべきだと思います。そして、AIリテラシー教育として、危機察知力・危機回避力を育成する分野を作らないと、子どもが生成AIを用いた犯罪に巻き込まれることを防ぐことはできないと思います。インターネット上の犯罪による被害から子どもたちを守れなかった情報モラル教育の誤りを二度と繰り返してはなりません。
※ 田中博之編著『ケータイ社会と子どもの未来ーネット安全教育の理論と実践』(メディアイランド、2009年)を参照のこと
AIリテラシー教育の授業のヒント
学校としては生成AIを活用する予定がまだなくても、子どもたちは年齢制限を無視し、大人に内緒で、家で使うかもしれません。トラブルを防ぐには、小中高校を問わず、先述した6つのポイントを踏まえて、AIリテラシー教育を行う必要があります。
おそらく各学校でAIリテラシー教育に割ける時間は、1年間に1、2時間程度でしょうか。どんなに頑張っている学校でも3時間ほどしか取れないと思います。
その中でぜひ取り組んでほしいのは、講義形式ではなく、子ども主体のワークショップ形式の授業です。例えば、生成AI活用のメリットやデメリット、危機回避のポイントなどのアイディアを、グループごとに考えてタブレットを使って整理します。それらを生成AIに読み込ませて「他に付け加えるとしたらどんなことですか?」などと聞いてみて、付け加えたり、削ったり、修正したりしながらまとめていくのです。中学生や高校生の場合は、実際に使ってみての失敗談や成功体験などを発表してもらって事例を共有するのもいいかもしれません。
そして、授業のゴールは、AIと相談しながら、自分たちで、「私たちのAI活用ガイドライン」を作ることです。現在、ある小学校では、児童会で「〇〇小AI活用ガイドライン」を作っている最中です。こんなふうに、自分たちの行動の指針を、自分たちで考えることが大切です。大人たちから言われたことをただ守るのではなく、創造的なガイドラインを子どもに作らせてみると、行動の変容につながりやすいからです。
また、今後はAIリテラシー教育のための教材がどんどん開発されていくと思います。信頼できる教育用動画や放送番組、ネットゲーム教材などが公開されたら、積極的に授業で活用していきましょう。そこから、生成AIの安全で創造的な活用が始まっていくのです。
取材・文/林 孝美