タグ: 人工知能

機械のアナウンサー

 NHKのテレビニュースをみているとAIによるニュースの読み上げの時間が入るようになった。滑らかな人間に近い発声とアクセントであり、違和感はない。ただ、なぜAIを使わなくてはならないのかが分からない。

 アナウンサーはかなりの訓練を積んでスクリーンの向こうに立っており、その技能は高い。もちろんミスは皆無ではないが、機械に代替させるほどの問題は感じない。災害時の対応も過去の実績をみる限り問題はなさそうだ。それなのになぜAIを登場させるのだろう。

 AIの活用によって、作業の省力化が果たせることは事実だ。ニュース原稿の作成から、構成して読みの確認、放送にたどり着くところまでの作業工程はかなりあり、そこで働く人々の労働軽減につながることは確かだ。恐らく放送時間の何倍もの時間をかけて準備がなされているはずだ。それを機械に代替させれば助かることもあるのだろう。

 ただ私たちがニュースから受け取っているのは音声や映像からの情報だけではない。伝え手の心情、身体的な行動、振る舞い、表情などを複合して感じ取っている。仕事は大変かもしれないがAIに頼りすぎないでいただきたい。機械音声で済むのならもうテレビでなくても良い気がする。

ホームページを作るなら ロリポップレンタルサーバー

取り扱い400種類以上のドメイン取得サービス─ムームードメイン─

【GOM Mix】初心者でも簡単な動画編集ソフト

WiMAX +5GをはじめるならBIGLOBE

道具として

 実は結構AIを使っている。AIに乗っ取られるなというのは私の持論だが、そう言いながら結構使っている。

 生成型AIは簡単な指示で文章を書いてくれるのでそれを使ってアイデアを練ることがある。しかし、それをコピーはしないというの゙が私の最後の抵抗だ。WordPressにはAIが自分の書いた文章を批評してくれる機能がある。なぜか英語のコメントだが、それなりに参考になる。具体例を挙げよ。反証の要素が足りない。結論が曖昧だ。ごもっともである。身近な批評家はいてくれて助かる。

 あくまでAIは道具として使おうと決めている。最終的には不格好でも時間をかけても自分で仕上げる。それがこだわりだ。そんな啖呵を切るから、私のブログは誤字脱字、論理矛盾だらけでアクセスも伸びない。でもそれでいいのだ。ここは譲れない。

修正する機能

 私たちの脳には不思議な機能がある。それは文字の連続の中に意味を感じ取るこである。木当はただの線と点などの連続に過ぎない文字の羅列に意味を感じ取る。きらにその文字列に間違いがあつたとしても、勝手に脳が修正し、意味を解釈てきるようにしてしまうのだ。

 実は前段落に意図的に誤植をしてみた。気づかれた方が多かったろう。それが5箇所あることはおわかりだろうか。わからなくても仕方がない。それが脳の働きなのだから。

 不完全な情報に一貫した意味を感じることはおそらく長い時間をかけて人類が獲得した能力なのだろう。大抵の場合、手に入る情報は不完全かつ断片的であり、それを元に判断しなくてはならない。類推する能力が高ければ、危険回避の可能性は高まる。

 この類推する能力は最近のAIに接したときの人々の反応にも見て取れる。先日、生成型AIの講習を受けたとき、講師がチャットの回答はAIが単語の連続の確率で組み合わせているだけで、言葉の意味を理解しているわけではないと説明した。すると同僚の一人は回答文には感情が感じられるので、講師の言っていることは間違っているという感想を述べていた。これも類推の能力がなせるわざなのだ。

 AIの作成する回答に人情を感じ取るのは、文章を読むときの私たちの基本的な姿勢のせいなのだ。文字列の乱れを勝手に修正して読むように、実は確率的な語彙の羅列であっても、そこに意味を感じ、心まで読み取る。AIとの付き合いでこのことが余計にはっきりとしてきた。

 逆に言えばこの能力こそ機械にはできないものの一つであると言える。豊かな想像力とおおらかな推測力、矛盾を乗り越える何かは人間の生物としての能力なのだろう。

 

意味の組み合わせ

 生成型AIを使っているとやはり意味の解釈という段階において難があると感じる。よく言われるようにAIは意味を理解しているのではなく、語の結合の確率の高さで回答を組み立てている。

 ただ、それならAIを辞書代わりに使えることの理由はなんだろう。例えばある熟語の意味を説明せよと指示するとかなり適切な答えが返ってくる。反対語や類義語を聞いてもそれはできる。おそらくこれはAIが得意なことのひとつなのだろう。それはある語の意味を検索して答えることには、少々複雑な表現になるが意味の解釈が行われていないからだ。

 最初に述べた意味の解釈をしていないというのは文脈の中で他の語との関係でいかなる意味を表現しているのかということなのだ。今のところこれが機械が苦手なことなのでChatAIの珍回答が生まれてしまうのだろう。

 文脈の中で解釈するとは国語教師の口癖のようなものだ。つまり、この物言いは人間らしい思考とその表現をせよということだったことになる。

経験という財産

 私たちが何かを考えたり、行動したりするとき、その裏にこれまで経験した事柄が必ず裏打ちされている。経験の種類が多ければそれが豊かなものになるし、なければぎこちないものになる。私たちは色々な意味で経験を蓄積するべきなのだ。

 経験がなくても知識は増えていく。見たことがないものでも見たつもりになれるし、いったことがない場所についても語ることは可能だ。それらを組み合わせればかなり現実的なものになるし、他に応用もできる。現代人の知識というものの大半はこうした経験に基づかないか、その補強が弱いものだ。これができるからこそ、未知の領域を探求できる。

 でも、やはり根本的な経験のない知識は危ういと思う。平和について語るとき戦争を経験していない私の世代の考えることはやはりどこか薄っぺらい。死を語るときはもっとそうだ。ただ、戦争は経験してはならないし、死は経験すらできない。でも、他人の死について経験することはできる。その経験の積み重ねで自分の死を考えることができるのだ。その意味でも経験を積むことは不可欠だ。

 なんでも検索すれば答えが出たり、検索すら放棄して生成型AIにプロンプトを投げかければそれなりの答えが得られる時代に、やはり経験は欠かせない。何が本当で何が間違っているのか。正解であっても最適解であるのかを判断するのは自分の経験から得られるものしかない。

 ならば、教育の世界では何を求めるべきなのか。正解を採点するだけではない。それに至る思考の段階で、どれだけ経験が利用されたのかを確認し、足りないときはそれを補強する機会を提供するべきなのではないだろうか。

プロンプトも書けなくなったら

 ChatGPTなどの生成型AIではプロンプトをどのように書くかが重要な問題である。いわゆるプログラミング言語とは異なる通常の言語で指示を出すことが求められている。コンピューター言語を覚えるよりはるかにハードルが低くなったはずだが、そこには大きな落とし穴がある。

 生成型AIは今のところ言葉の意味を理解してはいない。もっとも可能性の高い言語のつながりを高速で検索し組み合わせているだけであり、書かれていないことや暗黙の了解といったたぐいのものは察することができない。プロンプトを書く場合は、コンピューターが何を検索して何を合成すべきなのかがわかるように指示しなくてはならない。これはこれで結構な国語力が必要だ。ちょっと大げさな邪推をしてみる。このまま文書などの作成をAIに任せていたら、将来の人間はまともな文章を自分で作成することができなくなるのではないだろうか。そしてAIにさえも指示が出せなくなるのではないか。

 別のものに例えてみる。車が普及する前、特権階級を除いて多くの人は自分の足で歩いて旅をした。時間はかかったが、自分の身体だけで目的地まで移動しえたことは現代人との大きな違いだ。そのため昔の人は持久力に優れていたともいえる。自動車に乗るようになった私たちは持久力を失った。原因はそれだけではないが、便利な道具ができると失う能力もある。これが足腰の筋肉ではなく、頭脳の話になると話は複雑になる。

 脳が様々な指令を出している人間にとって、言語の能力はその指令を効率よく伝えられるかどうかにかかわる。生成型AIはそのことを実に簡潔に顕在化させたといえるのだ。ならばこれからの教育の目的はAIにもわかる日本語を使えるスキルを教えるということになるかもしない。もしこれができなくなったなら、人間はAIという道具の持ち方が分からなくなるということだ。もし、そのような事態になったなら、それがシンギュラリティにあたるのかもしれない。コンピュータに追い越されるというより、人間の方が衰えていく。そういうシナリオが浮かんでしまうのだ。

 プロンプトの書き方をChatGPTに尋ねる人もいる。杞憂とは言っていられない状況がすでにある。

 

思考を乗っ取られないように

 生成型AIのもたらす弊害がしばしば話題に上がっている。簡単な指示だけで文章やプログラミングができてしまうAIは道具として使うのならば便利だ。ただ、人工知能として使うならば、つまり人間の思考の代替として使うならば危険を伴う。

 最近の大学生はパソコンが使えないという。もちろん、全てではなくそういう人が目立つということなのだが、頻繁に耳にすることから、少数派という訳でもなさそうだ。パソコンが使えないのはスマホがあるからだ。私の世代にとってはスマートフォンはパソコンがないときの代用品に過ぎないが、若い世代にとっては何でも一応できるスマホがあるのに何でわざわざパソコンを使う必要があるのかと思うのだろう。使えないのではなくそもそも持っていない人も増えている。技能不足の問題ではない。

自分で考えよう

 AIがその問題をより深刻にしそうだ。すでに複雑なオフィスソフトを習得するよりはAIにどう話しかけるかの方が大切だと思われつつある。日本語の予測変換のように、本人の考えそうなことを予測してしまうシステムは直にできあがる。

 かつてコンピュータが普及し始めた頃、大学の教員から最近の学生は文書や手紙の書き方を知らない。書き方を習ったことがないのかと叱責されていた。その叱られていた世代がパソコンを使えない学生に苦言を呈している。もしかしたら五十歩百歩なのかもしれない。ただ考えなくてはならないのは、思考のアシスタントをするサービスは、人間が自分で考える機会を巧妙に奪い取るということなのだ。

 思考を乗っ取られないように自戒するとともに、若い世代の思考力を高めなくてはと思う。まだ教員であるうちはこんな偉そうなことを言ってもいいだろう。

AIのブログ

 気がつけばWordPressのサービスの中にAIのアシスタント機能がついていた。簡単な指示でブロクを書いてくれる。これは便利で危険な機能だ。うっかり使うのに慣れてしまったら、せっかくの私の楽しみの一つが機械に奪われるかもしれないからだ。IのブログなのかAIのブログなのかの分かれ目はいまここにある問題なのだ。

面倒な文章は

 ビジネスの場面にはほとんど意味がない文章のやり取りがある。手続き上出さねばならないが、実は受け取る側もよく読んでいないというものである。よく考えてみれば無駄だ。

 ならばやめてしまえばいいのにとも思うが、そう簡単ではない。言葉を使ってやり取りがなされたという実績を残す必要があるのだ。そうすることで丸く収まる。

 こういう考え方をする限り、ならばいっそのことこのような文書は機械に任せてしまおうということになる。いまでもかなりの分野はテンプレートを少し触っただけの心のこもっていない文書がやり取りされている。それを少々問題視する向きもある。注目されてしまえば書かざるを得ない。この前と同じコピーが届いたと言われる前に。

 そこで登場するのが生成AIである。ある程度の注文を行えばそれなりの文章を作成する。その都度、少しだけ気の利いたことを含めば、素っ気なさは解消できる。ただ心がこもってないことは変わらない。少々人間らしい文章を書いて相手をごまかそうとしているだけだ。

 相手もこのことは十分に承知しているから、相手の心のこもっていない文書を、心を込めずに読む。しばらくしたらこの読むのも自動化されるはずだ。相手の文書を読んでその内容を分析し、相手の誠意なり、信憑性なりを数値化して示してくれるアプリを使うことになるだろう。

 コンピューター同士が相手の動向を考えて処理する中で、人間はますます人間関係の機微を考えられなくなる。相手の会社にはいかない方がいい。ボロが出てトラブルを引き起こすことになるだけだ。

 文書作成のレベルならもうかなり高水準で自動化が達成されているし、これに静止画や動画を加えることも後わずかで実用化しそうだ。われわれは、コンピューターに全てを委ねてはなるまい。考えなくなった脳はたちまち退化し人間の可能性を著しく低めることにつながるだろう。

何も知らない物知り

 博覧強記は今でも憧れる境地だ。いろいろなことに通じ、それを適時に取り出せる。そして、もう一つその教養に裏打ちされた高度な判断や言動が行えるというイメージがある。理想的人物像だ。

 途中までなら機械がこなすようになった。チャットGPTならばデータベースにあることは瞬時に取り出せる。マイクロソフトの提供するBingならば今日あったことでも、過去のデジタル化したものでも極めて短時間に引き出し、回答を自然な言語で取り出してくれるのだ。博覧強記に似ている。

 ただし現段階では情報を拾い出し回答を組み立てることはできても、その意味を理解してはいないようだ。だから曖昧な問いかけをすると、誰でもわかるような間違えをする。知識に見合った教養はない。

 人工知能は極めて優秀な物知りではあるが、基本的なことも分かっていない、というより分かろうとしない存在であることを今の時点でしっかりと把握すべきだ。今後、人工知能の能力は上がり、今ほどは違和感は消えていくだろう。だが、基本は同じはずだ。

 なにも知らない物知りを人間という物知りではないが何かを知っている存在が操ることが大事だということになる。