数える楽しみと対称性の数学
基幹理工学部 数学科 池田岳

さまざまな図形を研究するのが幾何学という学問です.私の研究では,条件を満たす図形の個数を数えるというとても素朴な問題を扱っています.図1を見ると,複雑な曲面の中にいくつかの直線が含まれているのが見えるでしょう.3次式によって定まる曲面という意味で「3次曲面」と呼ばれるものの一つです.一般の3次曲面にはちょうど 27 本の直線が含まれていることが知られています(正確には複素3次元射影空間において3次曲面を考える).このように,図形(この問題では直線)の個数を数えるという問題を扱う幾何学の一分野を「数え上げ幾何学」と呼んでいます.もう少し広く,図形の集まりを一つの幾何学的な対象として扱うことをモジュライの幾何学と呼びます.数え上げの問題は 0 次元のモジュライを扱っていることになります.

Q:なぜ 0 次元を扱うのですか?
A:理由はいくつも挙げられます.一つには,結果がものの個数,つまり自然数なので,わかりやすくて面白いのです.図2のように,まるでパズルのような組合せ的な対象の個数と,数え上げ幾何学の答えが一致することがよく起こります.人間が理解できる重要な量は煎じ詰めればただの自然数ということはよくあります.自然数だからといって簡単というわけではないです.また,自然数を得る過程において,高次元のモジュライを駆使しますので,0 次元だけを扱っているわけではありません.

Q:どんな方法を使うのですか?
A:代数幾何学における交叉理論やトポロジーが基礎にあります.私がよく用いるのは特殊多項式の理論です.19世紀に数え上げ幾何学が盛んに研究され始めた頃から,代数的な手法は用いられます.図形が満たす条件を代数的なシンボルとして扱って,答えを導きます.幾何学の問題が代数学に置き換わるところが面白いところです.

Q:特殊多項式とはなんですか?
A:多項式は知ってますよね.高校では整式と呼んでいます.一般には多変数の多項式を扱います.「特殊」というのは「とても個性的で性質が良い」というニュアンスです.代表例はシューア多項式と呼ばれる,多変数多項式の族です.さまざまな表示が可能で,互いの関係が具体的な公式によってよくわかる場合が多いです.さまざまな幾何学的な条件がそれと対応する特殊多項式によって見事に表されるのです.特殊多項式は表現論にも関係しています.

Q:表現論というのはなんですか?
A:自然科学において対称性の解明を目指すとき,線型表現の問題が重要になります.大ざっぱに言えば,線型代数学の拡張です.数学では対称性を「群」という抽象的な構造として理解します.「群」が自然界や数学の世界において行列の形で立ち現れてくる.これを線型表現といいます.上で述べた特殊多項式は表現の解明に用いられる「指標」という関数として解釈できることがあります.

Q:表現論を学ぶにはどうすればいいですか?
A:まずは線型代数学をしっかり勉強することです.数学科の2年生には「ベクトル空間と幾何」という講義で,線型代数の続編として表現論の入門を講義しています.来春にはこの講義内容をもとにした本「テンソル代数と表現論」を出版する予定です.

Q:数え上げ幾何学と表現論が関係するのはなぜですか?
A:どちらも群と深く結びついていますので,関係するのは自然ではあります.しかし,表面的な関係だけではなく,もっともっと深いところで繋がっていることが,ここ数年の研究の発展で徐々にわかっていました.さらにこの先の10年くらいで「数え上げ幾何学」がもっと面白くなるんではないかと思います.

笑いの数理
基幹理工学部 表現工学科 郡司ペギオ幸夫

笑いについての論考というのは案外少なく、今でも100年前の哲学者、ベルグソンの著作が重要な文献になっています。そこでは、繰り返すだけで笑いを起こす「反復」や、地位や役割の「反転」、一つの言葉や人物が両義的な意味を持つことに起因する「交錯」が、笑いを起こす3つのメカニズムとして挙げられています。しかし、これらの議論は、もはや古いギャグやダジャレの類だけを捉えているように思えます。もちろん現代の笑いにも通じるものはありますが、わかりやすい対立軸、例えば、ベルグソンの引用する主人と使用人のような対立軸はもはや明瞭ではなく、対立軸の浮かび上がること自体が、現代の笑いを形作っているように思えます。

研究室の学部生、神さんは、漫才が大好きでこれをなんとか卒論にできないかと相談してきました。日本には「カワイイ」や「マンザイ」の笑いなど、文化に独特のものがあり、それらはグロテスクさや不安、恐怖と紙一重です。それは創造のコアであるとも考えていましたので、すぐさま研究として立ち上げることにしました。桂枝雀は、笑いとは緊張の緩和であると言い、千原ジュニアは、ツッコミとは話を「フチドル」ことだと言っています。この二つは私の頭の中で繋がるものがありました。そこで神くんには、YouTubeに上がっている漫才を徹底的にみて文字に起こしてもらい、これらを調べることにしました。その結果、「フチドル」ということの意味が数理構造として可視化されると共に、緊張の緩和とも関係付けられることになりました。

典型的な事例は、フットボールアワーの次のようなネタに認められます。ボケである岩尾が、次のように話します。「そこを右に曲がるやろ、そうすると横断歩道がある」、「で、まっすぐ行って信号がある」、…、「そのまま行くと、S字クランクや」。と、ここでツッコミである後藤が叫びます。「それ、教習所やろ」。岩尾は、次々と新たな情報を加えていくだけですが、それは最後にはS字クランクとなり、街中の話かと思って聞いていた聴衆は、梯子をはずされたような不安に陥り緊張してしまう。それを後藤が、全て教習所の話だと説明しますから、聴衆はそれを聞いて緊張が解け、一気に爆笑が生じるわけです。バラバラな情報であった岩尾の話に意味を与えた「教習所」こそ、フチドリです。フチドリとは、図と地という対立軸を浮かび上がらせて意味を与え、緊張を緩和することと考えられます。

私たちは緊張の緩和を、「言葉の生起確率が、フチドリによって急に増大する」という形で、説明できると思いました。そこで、漫才における言葉の連なりを、発話とその意味に便宜上分けた後、両者の間の対称性を仮定し、これを二項関係(関係がある・ない)で表しました。ここから、言葉の可能な組み合わせが、漫才の流れ・分脈の中でどのように制限しているか、代数構造の一つである束(演算について閉じた順序集合)で表して解析しました。その結果、淡々と付加される情報の系列は、複数の対角関係(対角成分のみが関係を有する)の形をとり、フチドリは、対角関係の外側全てに関係を認め、文字通り対角関係を「縁取り」していることが分かりました。これを束で表すと、図のように対角関係はブール代数と呼ばれる集合論に対応する論理、フチドリは、それを貼り合わせる要素となることが分かりました。それは、量子論理と関係の深いオーソモジュラー束を部分とする形式で、様々な漫才のネタを解析すると、そのほとんどがこの形になっていることが分かりました。束上で主観的確率を定義すると、フチドリによって確率が上昇し、緊張の緩和を説明できることもわかりました。笑いは量子情報によって説明できるという議論が、一部でなされるようになりましたが、それを一部に含む、より普遍的な構造が笑いにはあるのかもしれません。

ことばを真に理解する人工知能の実現に向けて
基幹理工学部 情報通信学科 河原 大輔

コンピュータで文章(テキスト)を扱う研究分野を自然言語処理と言います。「自然言語」と言っているのは、C言語やJava言語などのプログラミング言語と区別するためです。(しかし、最近では、プログラミング言語のコードの処理や自動生成に関する研究もありますので、単に「言語処理」でよいかもしれません。)

自然言語処理の研究の成果としては、検索エンジン、自動翻訳システムやチャットボットなどがあります。みなさんは、日頃、ウェブ上の検索エンジンを使って、調べたいことを検索しているのではないでしょうか。時には、自動翻訳システムで外国語を翻訳したり、スマートフォン上のチャットボットに質問することもあるかもしれません。

では、自然言語処理における難しさや問題はどこにあるのでしょうか? 次の3つが大きな問題として挙げられます。

・ことばの曖昧性
・知識の欠如
・文脈の適切な考慮

1つ目の問題の例として、「外国人参政権」の単語区切りの曖昧性を挙げます。

(1)
    a. 外国/人/参政/権
    b. 外国/人参/政権

日本語を知っている人であればaが正解だと容易に分かりますが、コンピュータには知識がないため分かりません。これが2つ目の知識の欠如の問題です。つまり、言語や世界に関する知識がコンピュータには欠如しているために、ことばを理解できないのです。

そこで、コンピュータに知識を与えることについて長い間研究されてきました。古くは人手で知識を与えていましたが、1990年代頃から、大量のテキストから自動的に獲得するという方法が主流になりました。さらに、ここ数年は深層学習が進展し、2018年に発表されたBERT [1]やその派生の深層学習モデルでは、テキスト中の単語を隠して、それを当てるという穴埋め問題を何度も繰り返し解くことで言語の基本的な知識を獲得しています(図参照)。このような穴埋め問題はテキストから自動的に大量に作り出せますので、人手をかけずに大量の学習データを作ることができるという利点があります。

3つ目の問題ですが、知識を用いて曖昧性を解消するには、文脈を適切に考慮する必要があります。次の2文では「米/原発」なのか「米原/発」なのかを文脈から判断しないといけません。

(2)
    a. 米原発、外部電源失い緊急停止
    b. 米原発の521系の列車の時刻

知識の獲得、および、獲得した知識の適切な利用によって、単語区切りの認識、構文構造の解析、同義語認識など多くの問題を高精度に解けるようになってきました。しかし、句や文の同義性の認識などはまだ難しく、ことばを本当に理解しているとは到底言えません。上記の知識獲得手法において、句や文のような大きな単位の穴埋め問題にする手法なども提案されていますが、まだ研究の真っ最中です。

テキストからの知識獲得手法にも限界があります。テキストに書いてあることは学習できても、書いていないことは学習できません。人は誰でも知っている常識的なことは基本的に書かず、むしろ変わったことやニュースを書く傾向があります。そのため、常識的な知識はクラウドソーシングなどで人に書いてもらって集合知として獲得するようなことが行われています。

我々の研究室では、コンピュータがテキストから自動的に獲得する知識と、集合知をうまく組み合わせて、ことばを真に理解する人工知能を作るべく、研究を進めています。今後ますます、検索エンジンや自動翻訳など、人の言語活動を支援するアプリケーションの精度が上がり、さらに便利になることが期待されます。

[1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proc. of NAACL 2019, pp.4171–4186. https://aclanthology.org/N19-1423/