国語教育

〈インタビュー〉川添 愛 聞き手:編集部
AI時代、言葉といかに向き合うか

ヒトの言葉、機械の言葉

──はじめに、川添先生は言語学とAIをご研究されていますが、そのきっかけをうかがえますか。

 大学で漠然と人の心に関する学問がやりたいと思っていて、いろいろな研究室を訪問したんです。その中で、言語学の先生に「『お天気下り坂』って言いますけど、『天気上り坂』って言わないのはどうしてですか」と質問したら、「目の付け所がよい、言語学に向いている」と言われ、嬉しくなってその研究室に入ることに決めました。

 その後、大学院で言語学を研究していたんですが、研究が行き詰まってしまった時に、自然言語処理の先生がアシスタントを募集していたんです。言語学という基礎的な学問ではうまくいかなかったけれど、応用的な分野で花開くんじゃないかという気持ちで、新天地に出ていくことにしました。

 自然言語処理はコンピューターで言語を扱う学問全般を指すんですが、当時は論文の中から必要な情報を素早く見つけ出すとか、文書を分類するとか、とにかくコンピューターで言葉を処理して便利なものを作る学問、という感じでした。AI分野は当時は冬の時代で、今のように「自然言語処理はAIの一分野」という意識はあまり強くなかったように思います。

 2011年頃から、またAIの研究が盛り上がってきて、いろんなことを言われるようになりました。「言葉を理解するなんて辞書さえ覚え込ませれば簡単でしょう」とか。言葉の意味というのは、辞書の記述や言葉のイメージだと単純化して考えられていたんだと思います。言葉を発するAIが出てくると、「支配されそうで怖い」などと、研究の発展に水を差すようなことも言われました。

 自然言語処理の研究に触れるようになって、言語学とはだいぶ言葉の見方が違うということに気づきました。はじめのうちは、それぞれ目的も違うし、それはそれでいいかなと思っていたんです。でもそのうちに、言語学で研究してきた言葉の見方というのが、ほとんど理解されていないんだなと感じるようになってきました。そこでだんだんと言語学者としてのアイデンティティが芽生えてきたように思います。

AIはどのように言葉を紡ぐのか

──自然言語処理と言語学では言葉の見方が違うということですが、機械の言葉はヒトの言葉とどのように違うのでしょうか。

 AIや自然言語処理の分野では現在、「機械学習」という技術で言葉を扱っています。例えば今年話題になったChatGPT では、一人の人間が何千年かかっても読み切れないほど大量のテキストデータを機械に読み込ませ、その中から人間の言語がもっているパターンを発見させて、自然な会話をさせています。今のAIには身体がないので、文字や文章の情報だけが入ってきて、その中から言語のパターンを見つけて言葉を紡いでいるわけです。

 一方、人間には身体があるので、生まれた子どもは、言葉を自分が見たり聞いたり触れたりするものと結びつけて理解します。その段階を経た上で、抽象的な概念を学んでいくんです。しかも、人間の子どもは、機械に比べたらものすごく少ない言語データから、「この言葉はこういうものだ」という仮説を見つけ出して、自分で検証しながら言葉を覚えていく。

 そういう意味でも、ヒトの言葉と機械の言葉は違っていると思います。

──最近、ChatGPT が注目されていますが、AIの話す言葉が人間に近づいてきているという感覚はありますか。

 受け答えのしかたを見ると、かなり驚異的だと思っています。これまで私は、AIが人間の意図を理解することはすごく難しいと考えていたんです。人間の言葉はすごく曖昧だし、文字通りのことを言わないことも結構あるじゃないですか。例えば、小さい子どもが騒いでいて、親が「うるさい」と言う。「うるさい」という言葉だけを見ると、単に自分が感じたことを言葉にしているだけですが、実質的には、子どもたちに「静かにしなさい」と命令していることになったりする。

 また、人間はうまく言葉の曖昧さを消しながら会話しているのですが、それは話し手と聞き手の間に共通の基盤がないとできないことなんです。例えば、「100キロ制限」という言葉があったときに、言葉だけだと重さなのか速さなのか、何の制限かわからない。でも、エレベーターに表示されていたら重さだとわかるし、高速道路だったら速さだとわかりますよね。エレベーターや高速道路がどういう役割をしているのかを知っているということが前提になって、初めて「100キロ制限」という言葉が解釈できるようになる。

 そういう感じで、言葉は、いろんな土台をもっていないと理解できないものなんです。AIは、身体も意識もないし、常識ももっていないので、人間の意図を理解するのはすごく難しいと思っていました。

 ところが、今回のChatGPT は、まるで私たちの意図を見透かしたような受け答えをしてきますよね。人間に近づかないとできないと思っていた意図の理解ができていると感じられるようになってきたことには、すごく驚いています。アラン・チューリングが提唱しているチューリングテストの考え方に従うならば、意味がわかっていなくても表面上人間と自然にやり取りができている今のChatGPT は、言葉を十分に理解している、ということになるでしょう。

AIはお笑いを理解できるのか

──ご著書『言語学バーリ・トゥード』のなかで、AIはダチョウ倶楽部の「絶対に押すなよ」を理解できるかというお話がありました。これはまさに、土台の共有ができるかということでしょうか。

 そうですね。熱湯風呂の淵にいる上島さんの言う「絶対に押すなよ」には、「押してほしい」という意図がありますが、AIはそれを理解できるのかというところですね。この間、「熱湯風呂の淵にいる上島竜兵さんが、『絶対に押すなよ』と言いました。あなたは押しますか。」とChatGPT に聞いてみたんです。そうしたら、「熱湯風呂の淵にいる人を押すのは危険だからやめましょう。」と言われました(笑)。ただし、「絶対に押すなよ」に限った話をすれば、今後のデータの収集によっては理解できるようになってもおかしくないと思います。

──芸人さんのギャグやコントは難しいと思うのですが、例えばAIに「面白いことを言ってください」とお願いした場合はどうでしょうか。

 私は試していないんですけども、「大喜利AI」というものがあって、すごく面白いことを言ってくれるらしいです。どんなふうにデザインしているのかわからないのですが、「人間がこういうのを面白がる」というデータがあったら、そこから私たちが気づいていない何らかのパターンを取り出して、それを利用して面白いことを言うAIを作ることは可能だと思います。ただし、それをAI自体が面白いと思っているわけではありません。

 ChatGPT からすると、私たちの言葉は、模様みたいなものだと思うんですよね。言葉のように、裏に意味がくっついているものも、模様のようにパターンだけがあって見た目以上の意味をもたないものも、ChatGPT からするとたぶん全く変わらない。AI自身がその模様や言葉を面白いと感じているわけではないんです。

AIの文学を考える

──AIが書いた文学作品も話題になりました。「面白い」という意識をもたないAIによって書かれた作品について、どう思われますか。

 エンターテイメントとして受け取るなら、それが面白いと思う人がいれば意味があるでしょうし、商品として考えるなら、お金を出してでも読みたいと思う人がいれば成立する。なので、AIが書いたかどうかというよりも、その文学作品に対して人間が何を求めるのかが、ポイントになるのではないでしょうか。私は、作者の考えに思いを馳せて読むのが好きなので、どんなに面白くてもやっぱり人間が書いたものじゃないとあんまり楽しめないと思うんです。けれども、単に「話が面白ければいいや」という人たちからすると、AIの書いた文学作品も、普通の文学作品として受け入れられるんじゃないでしょうか。

──AIの文学作品は、設定や登場人物を指定して書いてもらうのでしょうか。

 私は詳しくないんですが、今のChatGPTだったら、「こういう人たちが出てきて、こういうプロットで書いてください」みたいな感じで指示すれば、ある程度書いてくれるみたいです。面白いかどうかは別として。

 ただ、気をつけないと知らず知らずのうちに盗作になってしまう可能性もあります。AIはネット上にある文章を学習しているので、著作権の問題はどうしても出てくるでしょう。また、すでに亡くなった作家の文章を学習させて、新しい話を書かせることも、データが十分にあればできるでしょう。私は自分の作品がそんなふうに生み出されたら嫌ですけどね。そこは、著作者が守られるような仕組みがないといけないんじゃないでしょうか。

批判的に読む力の教材に

──高等学校の国語科では、2022年から新しい科目編成となりました。今の教科書をご覧になっていかがですか。

 私が国語の授業を受けていた頃とは、やっぱりだいぶ変わってるなと感じました。当時は読むことが中心で、自分で書いたり発表したりすることはあまりなかったので、その頃に比べるとだいぶバランスがよくなっていると思います。

 そこにAIが入ってくることについて、いろんな意見があるでしょうが、私は「AIありき」の教育はあんまりいい手ではないと考えています。というのも、AIは今はもてはやされていますけど、今後どうなるかわからないんですよね。質がすごく落ちる可能性もゼロだとは言えません。

 実際、今年の7月に発表された論文では、3月と6月のChatGPT の性能を比較したところ、かなりの変動があり、一部の課題で正答率が大幅に落ちていたことが指摘されました。

 ChatGPT の特徴として、人間がフィードバックをして、ある程度回答をコントロールするということがあります。元々ChatGPT の前身であったGPT-3 には、差別的な発言をしてしまうなどといった問題があって、そのままでは使えなかったのですが、人間のフィードバックで対処してようやく使えるようになったんです。しかしこれは裏を返せば、フィードバックのやり方次第で短期的に質が変わる、流動的な性質をもっているということなんです。

 また、ChatGPT を含む大規模言語モデルの宿命として、新しいデータを入れ続けないと、新しい情報をふまえた回答ができない、ということがあります。しかし、今後は新しいデータの中に、AIが生成したデータが入ってきてしまう可能性もあります。そのようなデータで学習したAIが常に安定した高い質で動くかどうかわからないところがあるので、AIを絶対に信頼できるものとして教育を進めると、まずいことが出てくるかもしれません。

──同じ質問をしても違う回答が出るのは、流動性があるからなんですね。

 いつも同じ回答だと機械っぽく見えるので、ランダムに返答を少しずつ変えるような操作をしているようです。ただ、ChatGPTは、企業が提供しているものなので、仕組みがユーザー側からわからないんですよね。だからそういう不安定なものだということは、ふまえておいたほうがいいでしょう。

 この間、とある大学で講演をしたときに、最初にAIのサンプルを見せようと思って、ChatGPT に「その大学について教えてください」と聞いたら、すらすら答えてくれたんです。でも、目立たないところに間違いや噓が入っていたんですよ。「1899年に誰が何をした」と答えているけれど、そんな事実はない。わかる人がチェックしないと気づかないような間違いが紛れていることがあるので、かなり注意が必要だと思います。

 AIは絶対に正しいと思い込んでしまわないように、本当に正しいかを検証する活動をしていくのも大事なのではないでしょうか。ChatGPT のようなAIを教育に使うときに期待できるのは、批判的にツッコミを入れながら読む力だと思います。

言葉の曖昧さを知る

──言語学を研究されたことで、身についた言葉の力はありますか。

 私個人は言語学を学んだおかげで国語力がついたと感じています。言葉の曖昧さに対する感覚が身についたかな、と。人間って、最初に頭に思いついた解釈が正解だと思い込んでしまうことが多いんです。SNS上でも、言葉のちょっとした解釈の違いで、どちらが正しいか言い争っていることがよくありますよね。でも、言語学者から見ると、どっちの解釈もあるよね、ということが多い。ぱっと聞いて自分が受け取った印象とか解釈とかを一旦心に保留して、「本当にそうかな」と考えてみる癖は、言語学を学ぶことで身についたかなと思います。

──読む以外の活動とのバランスがよくなったというお話がありましたが、一方で、世間では、話す・聞く・書くの実用的な活動に走りすぎることも懸念されています。

 難しいんですけど、いろんな活動があること自体は悪いことじゃないと思うんですよね。バラエティーのあるものを読んだり、自分で書いたり、表現したりする機会があるということは、悪いことじゃない。言葉のどういう側面に魅力を感じて興味をもつかは、人それぞれですから、いろんなチャンスが与えられるのは、すごくいいことだと思います。

 私は物語を読むのが大好きですが、世の中には物語が苦手で、説明文の方が頭に入ってきやすいとか歌や詩なら読めるという人もいます。そういう意味でも、言葉のいろんな側面を多様な方法で提示できることは、素晴らしいことではないでしょうか。

物語を創る論理的思考

──先生は、物語や対話文など、さまざまな形式でご執筆されていますが、執筆形式の使い分けについて意識されていることはありますか。

 題材によって、「こういう料理のしかたをしたらいいんじゃないか」という気持ちで書いています。人が手っ取り早く知りたいと思っていること──例えば、AIと人間の言葉の違いといったことについては、説明文として書く。一方、計算理論とか数論とか、専門性の高いことに興味をもってもらおうとする場合は、物語の形式がいいかな、という感じです。題材とニーズ、それから自分が楽しく書けるかを考えた末に、形式が大体決まってきます。

──国語では、「書くこと」の指導の中に創作活動が盛り込まれている科目もあります。創作に取り組むことについて、どのようにお考えですか。

 物語を作るって、かなりロジカルじゃないとできないですよね。自分が創った世界の中にキャラクターを置いて、その人たちの会話や行動を自然な形にすることは、論理的に考えないとできません。そういうことを授業の中でやってみることは、いいことだと思います。

 書き手の立場になってみて、物語を書くには本当に論理的で冷徹な思考が必要だと感じています。読み手が心を惹きつけられるということは、読み手自身が物語の展開を予想して仮説を立て、それが正しいかどうかを知りたくて先を読みたくなるということでしょう。読み手にいかに仮説を立てさせるか、つまりいかに理論構築させるかというのがすごく重要です。そういう意味でも、書き手は、読み手がどんなふうに考えるかまで先回りして考えないといけないですよね。そこには非常に複雑な思考があって、文学作品と真剣に向き合えば、そういうメカニズムが学べるはずです。物語を創作するということは、その人の中で文学と論理をつなぐ作業になるかもしれないですね。

言葉を使う主体は自分自身

──最後に、これからのAI時代に、私たちはどのように言葉と向き合っていけばよいでしょうか。

 今の高校生や先生方は本当に大変な時代を生きていらっしゃると思います。AIは便利なものですが、問題もたくさん出てくるでしょう。でも、基本はやっぱり、言葉を使う主体としての自分をできるだけ手放さないこと。自分で書いたり、読んだり、解釈したりする力を、AIに明け渡してしまわないということが大切です。AIが常に質の高い答えを出してくれるとも限りませんし、あくまで言葉を生み出して、その言葉に責任をもつのは自分自身だということを、忘れないでほしいと思います。

──ありがとうございました。

 2023年8月2日大修館書店本社にて
『国語教室』第120号より転載

プロフィール

川添 愛(かわぞえ あい)

言語学者・作家。1973年、長崎県生まれ。九州大学卒業、同大大学院にて博士(文学)取得。専門は言語学、自然言語処理。主な著書に『自動人形の城』『ふだん使いの言語学』『言語学バーリ・トゥード』など。『国語表現』(国表701)に「意図理解の難しさ」を掲載中。

一覧に戻る

関連記事

最新記事

このサイトではCookieを使用しています。Cookieの使用に関する詳細は「 プライバシーポリシープライバシーポリシー」をご覧ください。

OK