音声版はこちら
12月11日のアドベントカレンダーは、子どもとデジタルアドベントカレンダーの内容として、「子どもとAI」をテーマに書いていきたいと思います。
AIを取り巻く現状
現代において、ITの利活用を語る上でAIを話題から外すことはもはや不可能だと思います。
わたしはSIDE BEACH CITY.として緑園学園でのプログラミング授業を行っていますが、そこでも生徒からChatGPTを使って何かしらのことをやっていた旨の話をしていました。
学校によってはChatGPTなどを名指しでアクセスをブロックしているというところもあるでしょうが、これも学校によりますし、学年にも時代にもよるでしょう。
昨年度はブロックされていたツールが、今年度に入って解除されるなんていうこともあるかもしれません。
たとえ学校での制限があったとしても、家庭環境で子どもがAIに触れることを完全に避けるのは困難です。以下のような理由が挙げられます。
- 特定のドメイン(Webサイト)をブロックするにも限界がある
- 新たなAIサービスが次々と登場する
たとえばChatGPTをブロックしてもGeminiやMicrosoft Copilotなど別のAIが登場します。 そんなことをしている間にも、AIのサービスはどんどん増えていきます。
だからこそ、AIを完全に遮断することはほぼ不可能な時代となっている と思います。
AI利用の課題
AI利用には次のような課題が存在します。
- ハルシネーション(虚偽情報)の発生
- 実際に言っていないことを事実であるかのように表示する
- 事実ではない内容を事実として提示する
- 正しい情報の判断が難しい場合がある
- 一見正しいように見える内容が実は間違いであるケース
- 稀に悪意のある表現が生成される可能性
個人的にはその道の知識が足りていない編集者が無理に編集をした文章を提示されている という感覚があります。
わたしが出会ったハルシネーションの事例
ハルシネーションについてはある程度使っているとなんとなく「これ正しくないな」というのがわかる場合も多いですが、それでもよくよく見ないと気付かないような間違いが含まれている場合はあります。
例えばわたしはここ最近SBCast.やその他のインタビューなどの内容をAIに解析してもらっているのですが、たまに「あれ?こんなこと言ったっけ?」というような内容をまとめてきたりします。
内容的には文意に沿っているし、そこにその文章があったところで極端に違和感があるということはないのですが、なんかちがう。
そして実際文字起こしを確認してみると、かなり表現が誇大されていることがわかったりする。
AIに悪意があるかのような表現があるときも
海外ではAIがあからさまに悪意があるかのような表現をしてしまい、それが原因で事件が発生したということもある と、聞いたことがあります。
このような事態により、親としても子どもがAIを使用することに対する不安はあるでしょうし、わたし自身も子どもが直接AIに触れるというのはちょっと不安だなと感じます。
子どもとAIの適切な関係構築
AIを完全に避けることは現実的ではありません。
どのような形になるにしても、きっと子どもは成人する前にAIないし、コンピューターが能動的に考えているように見える何かにどこかしらで触れることにはなるでしょう。
たとえ親が見せないようにしていたとしても、学校や友だちづきあいなど様々な場でAIに触れることにはなるでしょうし、そうやって偶然に子どもがAIに出会ってしまうよりは、家庭でAIというものを付き合い方を考えた上でちゃんと接する方がよいのではないかなと思います。
家庭での取り組み例
個人的にはそのような時には親が前に立つということをやってほしいなあと思います。
また親かよという話ですが、これもまた多分親じゃなければいけないということは実はなくて、とにかく子どもだけでいきなりAIを使うということはまず避けた方がいいのかなとぐらいの気持ちです。
そういう時に親が頼れるつながりを持っているというのがとにもかくにも重要なことなんじゃないのかなと。
とにかく子どもが一人でAIを使わないというのは少なくとも最初の数回はやってほしいなぁなんて思いますね。
ネットワークの活用
とにかく親が学校や地域などの、すぐに触れられるネットワーク以外のネットワークとつながること、それが何よりも重要なんじゃないのかなと思います。
親自身がAIについて詳しくなることも重要ですが、すべてを自分や家族だけで抱え込まず、周囲と連携して問題を解決するということを考えてもよいと思います。