高見知英のかいはつにっし(β)

高見知英のアプリケーション開発日誌 のほか、地域活動などの活動報告ブログ。

「言葉の壁」と「技術の壁」を越えるには――ちえラジChat第4週まとめ

ChatGPT作今回のグラレコ

今回も毎日やっているちえラジChatより、今週一週間の配信内容を中心にお届けします。

なお前回のとおり、AIの原稿はこちら。気になる方はご覧ください

www.notion.so

今回のテーマは「言葉」と「技術」、そして「コミュニティ」の関係について、いろいろと感じたことをお話ししています。

月曜日:地域と行政の間にある“言語の壁”

月曜日は近況として、先日参加した地域コミュニティの定例会での出来事をお話ししました。

listen.style

最近気になっているのが、行政資料の“カタカナ語”の多さ。

ウェルビーイング」「プロジェクト」など、聞き慣れない言葉が並ぶ資料を見て、地域の方々が「何を隠してるの?」と疑問を感じる場面を目にしました。

実際には隠しているとは限らないのですが、言葉の使い方ひとつで、意図が通じなくなることがあるというのは、行政と地域の“言語文化の断絶”を象徴しているように感じます。

技術系のイベントでも似たような場面に出会うことがあります。

ITコミュニティでは「カタカナ語」が前提になっていて、それが分からないと会話についていけないという空気がある。

でも、地域では全く逆で、むしろカタカナ語を避ける傾向がある。そのギャップを埋めるのは本当に難しいことだと、あらためて実感しました。

人それぞれ、見ている世界や使っている言葉が大きく異なります。その違いを認識せずに話すことで、関係がこじれたり、お互いを嫌いになったり、意図が伝わらなかったりすることが起こりうると私は感じています 。

私たちは皆、日本語を話していますが、同じ日本語でも通じないことはたくさんあります。相手が自分と同じ文化圏の人かどうかを確認しないと、会話がうまくいかないこともあるのです。

この「よそよそしさ」を感じる人が少しでも減るようなコミュニティを作っていく必要があると強く感じています 。まずは、「お隣さんとは言語は同じだけど文化圏が違いすぎて言葉が通じない可能性がある」「方言は伝わらないかもしれない」ということを、皆が自覚することが第一歩だと私は考えています 。

  • 行政はカタカナ語ウェルビーイング、プロジェクトなど)が当たり前に通用する文化圏で動いている一方、地域ではそれが全く通用しないため、行政と地域コミュニティの間ですれ違いが生じている可能性があると感じています。
  • 世の中全体でカタカナ語を多用する傾向が強まっている(「多層派」になりつつある)と感じています。
  • 言葉は同じ日本語でも、文化圏が違うと伝わらない可能性があることを皆が自覚することが重要だと感じています。

火曜日:プログラミングで“決まったもの”を得る

火曜日のテーマは「AIとプログラミングの使い分け」。

listen.style

最近、AIを使って作業を効率化することが増えました。

AIはデータの集計や解析に非常に優れており、私もNotebookLMやChatGPTを使って情報をまとめたり記事を作成してもらったりと、日々の業務で活用しています。

自分が作成したデータに基づいて解析しているため、もしAIが事実と異なる内容(ハルシネーション)を提示しても、すぐに間違いに気づくことができます。

しかし、AIにはできないこともあります。

それは、「決まった形式で何かを出力する」ことです。

例えば、私の1週間の活動内容をまとめるように依頼しても、箇条書きで出力することもあれば、見出しと本文の形式で出力することもあり、毎回語順が変わることもあります。

これは、ChatGPTやGeminiのようなインターネット上で動作するAIが、基本的に「記憶」を保持していないためだと私は考えています。

そんなときにやっぱり頼れるのが「プログラミング」です。自分で書いたコードなら、フォーマットも、出力も、自分の意図どおりに整えられます。

AIは便利。でも、安定性や繰り返しの信頼性を求めるなら、やっぱりプログラムが必要。そういう意味で、両者を上手く使い分ける力が今後ますます求められていくと感じています。

  • AI(NotebookLM, ChatGPTなど)を使ったデータ集計や解析は有効だと感じています。ハルシネーションの問題についても、自分で作ったデータを元にしていれば気づきやすいと考えています。
  • ただし、AIは毎回決まった形式で出力することが苦手であると感じています。これは、インターネット上のAIが基本的に記憶を保持しない(毎回学習し直す)性質によるものだと考えています。
  • 読む人が自分だけであればAIによる揺らぎのある出力でも良いが、他人が読んだり一覧にする場合はプログラムによる定型的な出力が必要だと感じており、AIとプログラミングの使い分けが必要な時代になったと考えています。

水曜日:山手縁乃庭から見えてくる多様な地域活動のかたち

水曜日は先日放送したSBC.オープンマイク#109の振り返りを行いました。

listen.style

今回は、私たちが頻繁に利用している山手縁乃庭のオーナーである渡邊圭祐さんの妻さんである、渡邊桃伯子さんにお話を伺いました。

ハマラブサイドビーチチャンネルでは、私の知っている人が話題に上がることが多く、今回も「おっ」と思う回でした。

火曜日の中高生の居場所、水曜日の高齢者福祉、木曜日の子どもフリースペース、そして土曜日の伝統工芸販売イベントなど、曜日ごとに異なる対象に向けて多様な活動が展開されていることが紹介されました。

私自身も木曜日担当として関わっていますが、それ以外の曜日の様子を改めて知ることで、地域拠点としての可能性の広がりを実感しました。

こうした多様な活動を俯瞰し、共有可能な情報として整えるにはどうすればいいのか。今回の配信を通して、共通化された仕組みづくりの重要性を改めて考える機会となりました。

山手縁乃庭のような実践事例を、他の地域の取り組みと横断的に比較・共有できれば、より大きな価値が生まれるはずです。SBCast.やSBC.オープンマイクがその橋渡しの場となれるよう、今後も発信の工夫や情報設計を進めていきたいと思います。

  • 山手縁乃庭の多様な活動内容や、渡邊桃伯子さんの支援活動について改めて知ることができ、よかったと感じています。
  • 渡邊桃伯子さんの海外支援活動が、SBCast.で話を聞く他の海外活動家とつながるものがあると感じています。
  • 様々な活動の情報を俯瞰することで、共有できる情報や共通化できる技術が見えてくる可能性があり、面白いだろうと感じています。
  • SBCast.はそうした気づきのきっかけを発信する役割を担えると考えており、情報共有しやすい形式や方法を模索したいと考えています。

木曜日:声だけで日記を書くという試み

木曜日はフリートークで、「声だけで果たして日記は書けるのか」というテーマでお話ししました。

listen.style

ちえラジChatは私にとって“喋りの練習”の場ですが、実のところ、ある程度の原稿(箇条書き程度)を用意して収録しています。

アドリブで全部話そうとすると、やっぱりうまくいかないことが多くて……。

最近はLISTENで非公開日記を録音して文字起こしして、Obsidianに記録するという方法を取っていますが、どうしても余計な言い回しや脱線が多く、清書の手間は発生しています。

「声だけで日記を書く」って、簡単そうで意外と難しい。

他のポッドキャスターさんが、車の中や日常のなかでスラスラと話しているのを見ると、本当にすごいなと尊敬します。

自分も、原稿に頼らずスムーズに話せるようになりたい。もしかしたら、そういう訓練にAIを使うという道もあるのかもしれない――そんな可能性もぼんやり考えました。

  • ちえラジChatの収録で原稿を用意しているのは、アドリブで話そうとすると言い忘れや不適切な発言があり、収録に時間がかかるためだと感じています。
  • 声だけで日記を書いている他のポッドキャスターのスキルに感心しています。
  • ちえラジChatはSBCast.のための訓練ですが、アドリブで話せるようになっていない現状に課題を感じています。

金曜日:情報を集めるにはどうすればいい?

金曜日は「様々な人の最新情報を得るにはどうすればよいか」というテーマでお話ししました。

listen.style

SBCast.ではこれまで多くの団体・個人にインタビューしてきました。その団体自体も、みなさんそれぞれの場所で様々な情報を発信しています。

ですが、それを自分がフォローしきれていない。個々のポッドキャストを聞いたり、ウェブサイトを見に行ったり、YouTubeチャンネルを登録したり、RSSを読んだりなど、様々な情報収集の方法があることは理解しています。ただすべてを行うことはさすがに出来ず、かなりの情報をとりこぼしてしまっている。他の人から活動を聞いたり、ハマラブSIDE BEACH チャンネルの回で話を聞いて、改めて「ああ、今こういうことやっているんだ」と気づくことが非常に多いのです。

もし、「うち、こういうことやってるからSBC.オープンマイクで取材してほしい!」という団体の方がいらっしゃいましたら、あるいは過去にSBCast.に出演していただいた方で、「また呼んでもらえないかな」と思っている方がいらっしゃいましたら、ぜひお声がけください。活動が魅力的でないわけではなく、私が単純に気づいていないだけですので、遠慮なくご連絡いただければと思います。

  • SBCast.でインタビューした多くの人たちがインターネットで情報発信していることを認識しています。
  • 個々の情報源を自分で全て追うのは難しく、多くの情報を取りこぼしていると感じています。
  • ゲスト情報を一覧できるサイト(Temple Morning Radioの音の巡礼マップのようなもの)の必要性を感じているが、実現する時間がなく、既存のGoogleマップも使いにくいと感じています。
  • 情報整理や共有の方法について、様々なアプローチを検討していきたいと考えています。

まとめ:違う文化圏とつながるために

今週通じて強く感じたのは、「見ている世界が違えば、使っている言葉も違う」ということ。

地域と行政、ITと非IT、音声と文字、それぞれに独自の文化圏があり、それを越えていくには、まず“違いを自覚すること”が第一歩です。

私はその違いに敏感な人間でありたいし、その違いを橋渡しできる人間でもありたい。SBCast.もその一助になればと、日々いろんな試みを続けています。

来週も、いろんな立場の人と出会い、話し、つながっていくことを大切にしていきたいと思います。

AIまとめ考

今回はちょっと久しぶりにGeminiもちゃんと一人称視点でブログ記事を作成してくれたので、一部の段落はGeminiの書いたものを使用しています。

ブログを書くときにどの視点で書くのかは、いちおう書いてはいるもののまだ具体性が足りていなかったのかも。もっと明確に指示した方がいいのかもしれません。

特にここ最近のAIサービスは思考の途中式をちゃんと文章化してくれるので、何によって誤解が生じているのかも比較的判断しやすくなりました。そのような点をよく見ることで、AIは何が得意で何が苦手なのかというのがより良く見えてくるような感触があります。

また今回はグラフィックレコーディング風の画像も安定していました。

ほかのタイミングで出力した画像は文字がつぶれていることもあったためまだまだ万全とは言えないですが、グラフィックレコーディング風画像はマインドマップよりもシンプルで何を言いたいのかが書かれていてわかりやすいです。

ここ最近はGeminiも進歩してきたとのことですが、まだ日本語のグラフィックレコーディング画像を作成することはできないみたいで。

もっとこのようなイラストの作成が一般化してくれるといいなと思います。

しかし、 AIサービスはたいてい出力した内容を声で読み上げる機能も搭載しているのですが…。

これがまた喋りのクセが強くて全く内容が頭に入ってこない。

ブラウザの音声読み上げ機能を使って読んだほうがマシ(というより、聞き慣れてるだけのような気もする)という状態が続いています。

もうちょっと癖がなく聞きやすい声も入っていると良いんですけどね、NotebookLMの音声概要などのように。