●日時:2023年12月6日(水)18:30~20:00
●会場:神戸国際会議場1階 メインホール(第9会場)
●参加者数:80名
●講演:岡崎直観(東京工業大学情報理工学院)
今回の研究倫理フォーラムは生成AIが研究倫理に与える影響について考える機会とした。まずは現状と機械学習の論文でどこまで何が許されているのかを情報を共有し、今後の議論につなげることを目的とした。
冒頭に岡崎先生より「大規模言語モデルと科学研究」のご講演をいただいた。岡崎先生は大規模言語モデル(LLM)と関わりが深い自然言語処理研究のトップランナーのおひとりで、機械学習の世界でもっとも権威のある国際カンファレンスで論文査読や論文執筆におけるLLM利用のポリシーメイキングに関わった経験がある。これらを踏まえて、LLMの近年の発展、科学論文とLLMの関係についてご講演いただいた。特に研究アイディアの生成から、論文執筆、英文校正、論文査読など、どの段階までAIの利用が許されているのか、最前線での議論について紹介して頂いた。また各出版社が表明しているAIの利用のガイドラインについて紹介がされた。
フロアからの質疑を挟み、後半は後藤理事長や研究倫理委員メンバーと共に岡崎先生を囲んでパネルディスカッションを行った。
ライフサイエンスと情報系とではカルチャーの違いがある。例えば論文発表というとき我々はジャーナルへの投稿をイメージするが、岡崎先生たちの分野ではカンファレンスペーパーが主であり、参加者でピアレビューをカンファレンスに間に合わせるというプロセスとなる。昨今の機械学習研究の盛り上がりのため、投稿される論文の数が膨大になり査読が追い付かず、時にはドクターでない人にまで査読を依頼せねばならないこともあるという。そのような背景から生成AIをうまく活用できるようにしたいという切実な事情がある。ライフサイエンスでも、なかなか査読に回らないとは日々体感するところで、この点では両分野に共通するという見方もできる。
一方、新しい数理的な手法などが生成AIからできる可能性についての質問もあったが、人工知能や自然言語処理の分野で生成AI以降にまだ新しいものは出てきていないとのことである。人には考えられない高速アルゴリズムができたという話はあるが、物理で数式を展開して新しい方程式、新しい手法を作るにはまだ難しい点が残っているといった、分野による課題もあるのだろう。ライフサイエンス分野でも同様に、CRISPR-Cas9のような新しい発想でできた手法の開発にはまだ繋がっていない。一方で、生成AIを応用することで計算が難しいといわれていたアミノ酸配列からの立体構造予測など革新的な進展がみられている。
パネルディスカッションでは日本語のLLMを作ろうとする動きについても情報共有された。2023年のG7広島サミットは記憶に新しいところだが、国家予算には生成AIに関するものがいくつか入っている。サイエンスを学習したAIを作ることやAI人材の育成などを目指している。企業の参加も増えており、2023年10~11月頃の間には日本語のLLMができたというプレスリリースがいくつか出てきた。AI学習のためのサーバー費用を支援するという経産省支援プログラムもある。
言語モデルについては、自然言語だけでなく自然科学データを学習させた生成AIを使って研究しようというAI for Scienceの流れが各国で盛んになりつつある。LLMのように色々なデータを学習した大きなAIが何でも解けるようになるモデルを基盤モデルと呼ぶ。オミクス分野では、自然言語ではなく公的なオミクスデータを学習し、疾患解明や創薬など様々なタスクの研究に応用しようという動きがある。これまでバイオインフォマティクス研究者が丹念に一つずつ研究していたアルゴリズムが一つの大きな基盤AIに置き換わる可能性が現実味を帯びつつある。このような研究は個人の研究では賄えない巨大なGPUスパコンが必須となる。日本の参入に際しては大局的な戦略が求められている。ただ、いくら計算機に投資しても、AIに学習させるオリジナルデータがなければ性能のよい基盤モデルを構築できない。今後は、新しいオリジナルの計測技術や生物材料を抱え込むことが国際競争力を保つうえで必須であるという意見があった。
高等教育についてはChatGPT(OpenAI)やBard(Google)をはじめとした生成AIの使用に関する各大学の基本方針が公表されている。授業によって使用の可否はあるが全学での全面禁止はしておらず、道具として使いこなすことを推奨する大学が多い。今後生成AIとのやりとりに長けた学生を迎えることになる教育現場で「教員は新人類と相対することになるのか、辞書がAIになっただけなのか」というフロアからの困惑の声に対し、岡崎先生から普段感じていることとして、大学で3年まで講義形式の勉強をして4年でゼミに入り研究をするカリキュラムのケースでは、それまでに自分で考え行動してきたかによって4年次での伸び方が違うこと、4年になると既に行動様式が出来上がっており指導の難しい場面もあることが挙げられた。そのような問題に関して生成AIがあまり関わることはなく、行動力や人間同士のコミュニケーションといったところが大事になるので、初等教育ではそちらを重視していったほうがよいのではないかとのご意見であった。
「ChatGPTは論文を書くことができてしまうのではないか」という話を聞くようになってから比較的早い時期にシュプリンガー・ネイチャーは反応し、LLMを著者として認めないこと、使用した場合には説明するよう求めるなどのほか、査読する論文を生成AIにアップロードしないでほしいと呼びかけた。ICMLでポリシーを出すことになった際には、全面的に禁止するのではなく、してよいことといけないことや注意点などを分けるようにした。
フォーラムでは、ネイチャーの記事が出た時点で多くの人が納得できるであろう「AIを利用しつつ人の研究活動を妨げない、乗っ取らない」という線引きがいつまで続くのか、という疑問も投げかけられた。研究者がAIを新たな同僚とすることで自然科学研究が加速するのか、AIが研究者に取って代わり人間はAIが行う研究を観戦・吟味することが研究の中心になるか、などの議論があった。
議論は「知性とは何か」「人間とは何か」「人間が身につけるべき能力とは何か」といったことにも及んだ。フロアからは「AIはいわばエイリアン。共存はできない。ベクトルを変えて、効率や頭の良さはAIに任せ、人間は賢くなることを諦めて仕事を詰め込まず幸せになることを考え、直感的な遊びや感性を大切にすればいい」というユーモアに満ちたコメントも寄せられた。知性を手放したときに幸せになれる科学者がどのくらいいるかはさておき、人間とAIの棲み分けについて再考する時期が訪れていることを改めて感じるフォーラムとなった。
(文責:二階堂 愛)