Ameba Ownd

アプリで簡単、無料ホームページ作成

「宇田川源流」【宇田川教育論】 チャットGPTと大学

2023.04.11 22:00

「宇田川源流」【宇田川教育論】 チャットGPTと大学

 毎週水曜日は「宇田川教育論」をお届けしている。普段は、大河ドラマについて話をしていたのであるが、やはり今回の「どうする家康」はさすがに書くというような感じではなくなってしまうということになるのである。というか、書きたくないなあ、という感じであろうか。何か特別な理由がなく、漠然と書きたいことがないという感じであろうか。そのようなことから今回もまた「教育論」を書いてみたい。

さて、「教育論」の中で、最近話題ナノは「チャットGPT」であろう。まあ、こればかりではなくAIということが言われるようになり、その内容が教育に与える影響ということが非常に大きな内容になり、教育そのものが変化するということになってきているのではないか。

さて、真面目な議論は下記に回すことにして、まずは、チョット軽めな話からしてみたい。そもそも「AI」というと、我々「一般人」は何を考えるのであろうか。古くは「鉄腕アトム」が出てくるということになり、また、我々の世代(50代)では、やはりターミネーターであろうか。このターミネーターという映画は非常に素晴らしい映画で、AIの特性をうまく引き出している。実は、AIというのは、一つのプログラムで動く。そのプログラムは常に論理性を必要としその論理性で動くことになる。では「論理性を壊すものを破壊せよ」と命じた場合どのようになるのであろうか。実際にはそのような漠然としたものではなく、例えば「この人を守るために、この人に危害を加える可能性のある人をすべて排除せよ」というような命令を加えた場合、当然に、自動車も、また、その守る対象者の友人もすべて、排除対象となる。何しろ「可能性」である以上は全てがその可能性を包含しているからに他ならない。

その意味で「スカイネット」つまり「ターミネーターを操り、人間をすべて排除しようとしているAI」は、そのように人間によってプログラミングされたAIであり、そのAIによって生み出されたターミネーターと人間の戦いと異様になっているのである。

チャットGPT、学生の利用に対策…上智大「論文使用なら厳格な対応」

 質問に応じて自然な文章を作成する対話型AI(人工知能)「チャットGPT」を巡り、国内の大学が相次いで対策に乗り出した。リポートでの利用を制限したり、情報流出の危険性を学生に注意喚起したりする動きが広がっている。専門家は、教員側の対応が求められると指摘している。

 上智大は3月27日、学生と教職員に対し、「成績評価における対応方針」を公式ウェブサイトで公表。リポートや学位論文でチャットGPTなどのAIが生成した文章や計算結果などを、教員の許可なく使うことを禁止した。AIが生成した文章を検知するソフトを使うなどして、論文などでの使用が判明した場合、「厳格な対応を行う」としている。

 チャットGPTは米新興企業「オープンAI」が昨年11月に無料公開し、すでに世界で1億人以上が利用している。高い利便性の一方、AIの学習が不十分な分野では誤った内容で回答することがあるほか、学習データに著作権のある文章が含まれていた場合、著作権を侵害する可能性がある。また、企業や研究内容などの機密情報を書き込めば、その情報をAIが学び、外部に漏えいさせる恐れもある。

 学生にAI自体の利用を禁止することはできないため、各大学の対応は、リポートでの使用制限や注意喚起が中心だ。

 東京大は今月3日、他の対話型AIなども含めて「生成系AIについて」と題した文書を学内向けサイトに掲載。「リポートは学生本人の作成が前提。AIのみを用いて作成することはできない」などとした。

 7日に行われた京都大の入学式では湊長博学長が、AI生成の論文には問題が多いと指摘。「文章を書くということは、非常にエネルギーを要する仕事だが、皆さんの精神力と思考力を鍛えてくれる」と新入生に語りかけた。

 教員に対して対応を呼びかける動きもある。東北大は公式ウェブサイトで「留意事項」を提示。学生への注意喚起のほか、「演習課題やリポートを課す前に、AIがどう回答するか確認する」「教室で記述させる試験形式にする」など、課題の出し方や試験方法の見直しを促した。

 金子元久・筑波大特命教授(高等教育論)は「単にリポートでの使用を禁止しても、学生が本当に使っていないかの判別は困難だ。リポートを提出させた上で口頭試問するなど、教員側の工夫がより一層必要になるだろう」と話した。

4/9(日) 読売新聞オンライン

https://news.yahoo.co.jp/articles/58239f796b6b21385aa2218ebb3eb74bb9a2ed08

 人間の感情を理解するというような意味では、鉄腕アトムのようなAIができるまでは、その内容にならないであろう。鉄腕アトムが膨大な計算によって成立しているのは、その主題歌からでもわかる。「10万馬力だ。鉄腕アトム」という歌は、そのまま原子力ユートピア論で、なおかつ、その出力は10万馬力が必要酔いうことになる。もちろんその時代に、感情を司るAIの細かい設計などの設定があるかどうかということになるが、そこまでは存在していない。

さて、現在のAIというのはどのようなものであろうか。現在話題になっている「チャットGPT」というものに関して幾分知っていると思うが、実際には「何かを聞いて、その内容に関して条件を付すと、それが文章形式で帰ってくる」ということになり、論文などはそのままできてしまうということになる。そのことは、そのまま教育の現場では「何も努力をしないでチャットGPTが代わりに様々なことをやってくれる」ということになってしまい、学びを妨げるというようなことになっている。上記の上智大学に関してもそのようなことを言っているし、また、東京大学もそうなのである。

しかし、本当にそうであろうか。

そもそも論として、「論文を書く」ということをしっかりと審査できれば良いことであり、「チャットGPTを禁止する」ということではなく、そのことから、人間が介在しているかどうかということを見抜くことができるだけの審査をできる教員がいればよいということになるはずである。今までのように「知識を問う」問題ばかりをしていれば、当然に、AIに関して対抗できなくなってしまう、つまり、知識だけではうまくゆかなくなる。しかし、知識ではなく未来や論理性など人間でしかわからないことを教えることのできる教員が少ないというのも日本の最大の問題なのである。

日本はAIをそのまま教育させること、AIの真似のように何かを記憶させることは得意なのかもしれないが、そこを使て論理性を持った内容を考えさせることはかなり難しい。そのようなことでは、AIが全ての教員の代わりになってしまうのではないか。大学などは必要なくなってしまう。単純に「出来てしまったものは、禁止しても使われる」ということであり、チャットGPTを超える、またはそれを使っても問題がないような試験を出せる「知恵のある教員」が、常置にも東大にもいないということなのである。そしてそのことが世界の大学ランキングで日本が引くなるのもうなづける。