6月に、東京都の教育委員会が各学校に対して「宿題にChatGPTをはじめとする生成AIを使わせないように注意喚起する」ということがあったそうです。
ChatGPTといえば「なんでも知ってる会話型AI」として有名ですが、なぜ教育委員会はChatGPTを利用させないようにしたのでしょうか。
「便利なら使えばいいじゃないか」と思う方も多いことでしょう。しかしながら、生成AIを禁止する理由はきちんとあるのです。
本記事では、そもそも「ChatGPTとは?」そして「生成AIとはナニモノなのか?」という点から解説していきます。
ChatGPTとは
まずはじめに、ChatGPTとはOpenAI社の開発した特定のAIサービスを指します。
ChatGPTに質問を問いかけると、その答えを返してくれます。
たとえば、以下のような質問をしてみましょう。
質問:日本で一番高い建物を教えてください
2021年の時点で、日本で最も高い建物は「あべのハルカス」です。あべのハルカスは大阪市にある超高層ビルで、全高300メートルで、日本の建築物としては最も高いものとなっています。
ただし、「建築物」と「構造物」を区別すると、全高333メートルの東京タワーや全高634メートルの東京スカイツリーはあべのハルカスよりも高いですが、これらは「塔」であり、一般的な「ビル」または「建物」の定義には含まれません。
なお、これらの情報は2021年のものであり、それ以降に新たに超高層ビルが建設された場合は、最新の情報をご確認ください。
ChatGPT
このように、ちゃんとした答えが返ってくるのです。
「建物」という単語を使ったので「あべのハルカス」が回答として提示されましたが、建造物としては東京タワーやスカイツリーのほうが高いという追加情報まで得ることができました。
また、ChatGPTのほかにも、Googleの「Brad」やMicrosoftの「Bing AI」など、会話形式で回答してくれるチャットサービスが続々登場しています。
この先、さらに高度な質問にも答えられるようになるでしょう。
生成AIとは何なのか
生成AIは、簡単に言うとChatGPTをはじめとする「絵や文章を作成してくれるAIの総称」です。
実は、ChatGPTのほかにも、世の中にはたくさんのAIが登場しています。
例えば、イラストや写真を生成するAIも非常に熱い存在です。画像生成AIである「Stable Diffusison」は文字情報からイラストを生成するのですが、その文章=プロンプト次第で様々なイラストを生成できます。自分が描きたいイラストを自在に出力する人物を「プロンプトエンジニア」と呼んだりします。
イラストを生成する人物を、自ら「AI絵師」という言い方をする人もいるようですが、実際には自分で絵を描いているわけではないので「絵師」という表現はどうなんだろう?という意見も飛び交っているようです。
生成AIの問題点
生成AIの問題点として、「著作権や権利侵害」の問題が存在します。
現在のAIは、大量の学習データをもとに「それに近いもの」を出力します。
たとえば、「犬」の絵を出力するためには、裏で数千枚・数万枚の「犬」の画像を学習し、その内容から「犬っぽい絵」を出力させるのです。
ここで重要なのが「っぽい絵」という点。
たとえば、「○○(キャラクター名)っぽい絵」を生成させようとすると、本当にそのキャラクターに近い絵が生成されるんです。
そうなると、キャラクターの権利が侵害されたり、特定のイラストレーターの絵柄を悪用するような事例も起きています。
AIはとにかく「真似る」ということが非常に得意ですので、気づかないうちに権利を侵害するという可能性も否定できません。
もちろん、文章を生成するChatGPTも例外ではありません。知らずのうちに著作権侵害のおそれがある文献を参照してしまっている可能性もあるでしょう。
このように、生成AIは便利な反面、まだ多くの課題が残っていることを忘れてはいけません。
なぜ宿題で生成AIを使用してはいけないのか
学校で学ぶのは「基礎知識」
まずはじめに申し上げておくと、学校で習う内容は「答えがあるもの」ですし、特に義務教育である小中学校の勉強内容は「大人は知っていて当然の内容」であるはずなのです。
そうなると、学校の宿題の答えというものは「世の中に確実に存在する」ということになります。
前述のとおり、AIとは「過去のデータからそれに近いものを出力する」存在です。
一方で、学校の勉強は答えがあり、かつ過去にその勉強した大人は確実に知っている内容しか彼らは勉強しないのです。
そうなると、小中学校はもちろんのこと、学習要領の決まっている高校生の問題くらいであればインターネット上にいくらでも答えは転がっているのです。
インターネットに転がっている情報はChatGPTの得意分野です。つまり、「ChatGPTは答えを知っている」ということです。
つまり、「ChatGPTに学校の宿題の問題を解かせる」ことは簡単ということ。
さて、ここで本題に戻ってきましょう。
「ChatGPTに宿題をさせることが本当にいいことなの?」
という点です。
親としては「NO」と言いたいところでしょう。
誰かほかの人に宿題をやらせて、それを丸写しするわけですので、友達の答えを丸パクリするのとまったく同じわけです。
そうなると、なぜ「宿題」というものが存在するのかわからなくなってきますね。
もちろん、宿題自体の存在意義が迷子になっていることも否定しません。
自信をもって「宿題は無駄!」と言えるのであれば、堂々とChatGPTに宿題をさせましょう。
「調べればいいじゃん」は将来の子供の首を絞める行為
とはいえ、昨今の小学生は学校の宿題で「調べる」をテーマとした学習をすることも多いようです。
そうなると、「ネットで調べるのとChatGPTに聞くは何が違うの?」というご意見も出てきます。
事実、ChatGPTはGoogleで検索するよりも正確な情報を簡単に取得できます。
そのため、「困ったときにChatGPTに聞けば生活できる」という人が出てきます。
実はこれ、Googleが登場したときにも「困ったときにググればいいじゃん」と言っていた人とまったく思考が同じなのです。
ググるだけの人の末路
さて、実際に「ググればいいじゃん」と言っていた人がどうなったか。
質問を受けた際にググることで学生時代は何とか過ごせてきましたが、社会人になったとたんに「ググっても答えのない問題」にぶつかります。
DXが叫ばれる昨今において、「問題解決能力」が問われるようになってきました。
簡単に言うと、「指示待ち人間」や「言われたことをただこなすだけ」の人間はそれこそAIやロボットにその仕事を奪われてしまうのです。
このように、それまで自分で考える力を養ってこなかった人は社会では通用しなくなってきています。
ChatGPTを使って調査の時間短縮をすること自体は非常に良いことなのですが、それをそのまま受け流したり、自分の知識や経験として蓄積できることがそれ以上に大事なのです。
本当に「利用禁止」なの?
事実、東京都の教育委員会の通達では、「生成AIの回答をそのままコピーして提出しないよう」とされているようです。
実は、明確に「使ってはいけない」とは言っていないのです。
プログラミング教育がはじまり、子どもたちに身に着けてほしいスキルは「勉強ができること」から「考える力をつけること」に変わってきています。
そのため、文書に明言はされていないでしょうが、「ChatGPTを使っても構わないが、自分の考えを以て宿題に臨むこと」というのが本音なのではないでしょうか。
ChatGPTのいうことが正しいとは限らない
じつはこれが一番の問題で、「ChatGPTは正解を教えてくれるとは限らない」のです。
学校の勉強であれば「答えがある」し「すでに誰かが解いた問題」ですので、計算問題や文章問題であればテストで100点をとれる解答を得ることが可能です。
しかし、これはあくまでも「すでに答えがネット上に存在するから」正解を教えてくれるだけなのです。
ドリルの答えを持った見ず知らずのおじさんが、その問題の答えを教えてくれるようなものと考えましょう。
さて、そんな高性能なChatGPTですが、嘘の答えを教えてくれることもあります。
- すこし意地悪な問題
- 先生が考えたオリジナル問題(学校や地域のローカル情報が含まれるとなおよし)
- 明確な答えのない問題
これらの問題をChatGPTに問いかけると、自信満々に嘘の答えを返すことがあります。
しかし、ChatGPTの文章はそれっぽい文章であるため、それを簡単に信じてしまう人が大量に存在します。
つまり、嘘を見抜く力が重要ということ。
ChatGPTを活用するのであれば、その情報が本当なのか、嘘を言っていないのか、間違っていないのか。
それらの情報をしっかりと自分の中で吟味する力が必要になるのです。
ChatGPTの正しい使い方
ここまで注意点を述べてきましたが、ChatGPTはうまく活用することで学習を加速できる存在です。
うまく付き合うことで、これまで以上に効率よい学習を実現できるかもしれません。
丸写しはNG!
まず第一に、ChatGPTに限らず「丸写しはNG」ということをしっかりと教えていきましょう。
調べる学習をしたとしても、ただ丸写しするだけでなく、必ず自分の考えや自分の中に落とし込んだ言葉で表現できるようにしてあげましょう。
大学のレポートでも、必ず最後に「考察」を入れていたことでしょう。
それと同じで、自分の言葉で記述できるようにしっかりと理解することが最重要です。
ChatGPTがこんなことを教えてくれた。ではそれを自分の言葉で再編して自分の知識として披露できるように落とし込む。これが非常に重要です。
ChatGPTの言うことが本当に正しいのか考える
繰り返しになりますが、ChatGPTは「間違った情報をそれっぽい文章で提示する」ことがよくあります。
もしChatGPTの情報を自分の言葉に落とし込んだとしても、そもそもの情報が間違っているのであれば本末転倒です。
その間違った情報を子どもがインプットしてほかの人に披露するようになってしまったら?
考えただけでゾッとする親御さまも多いことでしょう。
とはいえ、TwitterやFacebookといったSNSに限らず、ネット記事の情報ですら間違っていることが多い現代において、何が正しいか判断するのは非常に困難と言えます。
「ChatGPTの言っていることをググったら同じ内容が見つかったので正しい!」
と思ったが、その情報すら間違っている。ということもザラです。
事実、「ChatGPTで大量に記事を生成しよう!」というビジネスハック本が大量にAmazonで販売されています。
つまり、
「ChatGPTの答えと同じ内容をネット記事で見つけたが、その記事もChatGPT産だった」
ということが起こりうるのです。
そう考えると、ネットで検索するのも怖いと思い始めてきませんか?
しかし、それが現代のネットビジネスなのです。
それだけ、情報の正しさを確認するのは難しくなっているということはしっかりと覚えておきましょう。
おわりに:ChatGPTと教育
今の子供たちが大人になったときにはさらにネット情勢は変わっていくことでしょう。
今以上に、「その情報は正しいのか」を疑ってかかる必要があることは間違いありません。
一方で、AIの精度もどんどん向上することが予測されます。
もしかしたら「間違った情報は提示しない」ようになるのはすぐそこかもしれません。
このように、今後の情勢はどう変わっていくかは本当にわからないと言えるでしょう。
それでも、変わらず必要とされるのが「問題解決能力」です。
AIが進歩することで、人間の生活、そしてビジネスはさらに高度なものへと変化していきます。
そんな中でも、情報をうまく整理して目の前の課題に立ち向かうのはやはり人間です。
すくなくとも、AIがあくまでも「道具」であるうちは小手先のスキルではなく「考える力」や「思考力」を養っていくことが重要なのではないでしょうか。