11月編集講座「自然言語処理とAI校正」(藤本隆氏)に参加して

◎オンライン講座「自然言語処理とAI校正」

講師:藤本 隆(ふじもと たかし)氏
プランディット 編集事業部 編集長
【講師略歴】
ベネッセグループの編集専門会社にて編集業務に長年携わる。学習教材をはじめ情報誌、フリーペーパー、教育系タブロイド、資格系教材、広告チラシ、フライヤーなど広範な印刷媒体の企画・制作経験を持ち、原稿、記事の執筆、イラストレーション、DTPデザインもこなす。ベネッセグループ各社向けの育成研修講師を務める。
著書に『印刷発注の基本がわかる本』(日本能率協会マネジメントセンター)。
(AJECの講師プロフィールより)

 今回の藤本さんの編集講座は、「自然言語処理とAI校正」でした。これから、徐々に私たちの仕事に進出してくるだろう、新しい技術の話です。

 AIによる技術革新は、目を見張るものがあります。私たちの日常生活に欠かせないスマホの中にもAIの技術が取り入れられ、知らないうちに、私たちはAIのお世話になっています。スマホでの音声入力や翻訳などには、自然言語処理とAIが使われています。そんなAI技術が編集の世界にどう使われようとしているかを藤本さんが「自然言語処理とAI校正」として説明してくださいました。

<講義内容>

●文字情報のデジタル化で起きていること

  • 文書の電子的な蓄積
  • さまざまな媒体・機器への展開
  • 通信網による全世界への瞬時の到逹
    →コンテンツの流通と活用の大変化(量・種類・スピード)

▶これらの需要に対応した「作り方」の変革が必要

●デジタル化と編集製作

  • 編集製作ワークフローのデジタル化(主に効率化)
  • デジタル技術を最大活用した編集製作(変革の起爆剤)
  1. XMLタグによる文書管理と自動組版
  2. AIによるDB管理
  3. AIによる文書編集
  4. AIによる校正

●AI(Artificial Intelligence)とは何か

  • 大量データの機械学習(ディープラーニング)によるプログラム(モデル)を生成し、それをinputに対して適用し、適切なoutputを出力させる技術
    →大量データの学習からモデルを生成し、新たなデータに対して、モデルにより結果を推定し、判断している

●AIと自然言語処理

  • コンピュータに言語を「理解」させ、「学習」「解析」できるようにするための技術
  1. 形態素解析 → 文を最小単位(形態素・トークン)に分割する技術
  2. コーパス → 形態素解析をし、構造化された膨大な言語情報の集合
  3. 構造解析 → トークン相互の係り受けや句構造を解析する技術

●自然言語処理でできること

  • 文章をテキストデータとしてだけでなく、内容で処理する
  1. 文脈の推定(文書の自動分類やレコメンド)
  2. 論旨の推定(自動要約、自動翻訳、キーワード抽出)
  3. 正しい日本語の推定(AI校正)

●AIによる校正とは?

  • 入力された文を構造解析し、処理した結果と入力文を比較して、誤りの候補を推定
    →AI自然言語解析による校正に加え、正誤辞書を使ったルールベースの判定プログラムを併用するのが標準的

●AI校正の実際

  • テキストデータに対する解析がメインであり、レイアウトを参考にした文章構造の推定は現状難しい
    →人によるチェック観点を軽減することで、品質保証の制度とスピードを上げていく
【既存の校正システム】
  1. Wordの校正機能(Microsoft)
  2. JustRight!7 Pro(ジャストシステム)
    https://www.justsystems.com/jp/products/justright/
  3. 文賢
    https://rider-store.jp/bun-ken
  4. Press Term(NTTデータ)
    https://www.nttdata.com/jp/ja/lineup/press_term/
  5. AI editor
    https://www.ai-editor.jp/
  6. ちゅらいと
    https://datumstudio.jp/chuwrite/
  7. Review-it! for Package(凸版印刷)
    https://www.toppan.co.jp/news/2022/02/newsrelease220215_1.html
  8. AI審査サービス(大日本印刷)
    https://www.dnp.co.jp/biz/solution/products/detail/10159174_1567.html
  9. Knowledge Explorer
    https://www.presight.co.jp/product/knowledgeExplorer.php
  10. Word Builder
    https://convenient-works.com/lp/wordbuilder/
  11. Catchy
    https://lp.ai-copywriter.jp/

●AIを利用した編集製作の未来

  • ニーズに応じたコンテンツを瞬時に選び出す(文脈の推定)
  • コンテンツをニーズに合わせて瞬時に編集する(論旨の推定)
  • 編集したコンテンツを自動で品質保証する(正しい日本語推定)

▶デジタル化された情報を最大限に生かす編集製作へ

<感想>

 私たちが、ほぼ個人的な作業としてやっている校正・校閲の仕事にAIがどのように役立つかという話でした。文字情報や音声言語がデジタル化されている編集製作の中で、徐々に利用されはじめた、自然言語処理とAI校正の現状が分かりやすく説明されていました。

 もちろんAIの働きや構造は、私たちにはブラックボックスとなっていますが、AIはいろいろな分野で目覚ましい活躍をしています。AIの働きは、藤本さんの説明にあったように、インプットに対してAIが適切な処理をして、望んだ結果をアウトプットしてくれるところにあります。しかし、AI校正の現状としては、一部の試みに終わっているところがあります。ツールも、出版界以外のところでの活用が期待されています。

 要するに、現在私たちが向き合っているのは、紙の本とか、原稿とかいっても、作業上はあくまでもデジタルデータとなった「もの」だということを自覚することが大事だと思います。そして、コンピュータがもっとも得意とする対象はデジタルデータだということです。つまり、デジタルデータとコンピュータはとても相性がいいはずです。だから、デジタルデータとなった「もの」は紙の上の文字データとは違った活用がもっと増えてもいいはずです。現在のところ、まだ発展途上という印象です。藤本さんの講演を聞いていて、出版界のDXに対する藤本さんのじれったい気持ちを感じました。

 AIの進化については、落合陽一が、ディフュージョン生成モデルによるAIによって、2025年にシンギュラリティがやってくると言っています。画像から文章を作ったり、文章から画像を生成したり、文章から音楽を生成したりすることが、簡単にできるようになってきました。実際、そうした技術を利用して、YouTube上の動画などが製作されています。もっとも2040年ごろ起こるとされているシンギュラリティが2025年に起こるということは本当かどうか不明ですが、近い未来に、コンピュータ上のとても大きな革命が起こりそうな気がします。

 藤本さんが言っていたように、出版界でAIがそれほど活躍していないのは、まだ積極的に活用しようという状況になっていないのと、コストパフォーマンスが問題になっているからだと思われます。依然として、とんでもなく高価なシステムです。出版物の総売上は1兆3千億円ほどです。その中で、編集の校正にかかる費用は、例えば自動車産業などと比べれば、雲泥の差があります。自動運転のための技術開発などは、日々進化しています。多分、校正機能の充実のためのAIにもっとお金をかけてよいということになれば、直ぐにでも完全な校正がAIによって行われるようになるのではないかと思われます。

 囲碁の世界で、AlphaGoが人間のトップ棋士を超えてから、今ではプロ棋士はAIに囲碁を学んでいます。そして、AIがプロ棋士のパートナーになっています。こうした事態は、いろいろな分野で進行しています。見て、情報を収集し、判断するというような分野は、いまではコンピュータが最も得意とする分野であり、いずれ校正の世界でもAIが人間を超えると思われます。今のところ、テキストだけを読み取って校正をしているので、レイアウトが凝っている紙面などの校正は難しい状況ですが、画像認識の技術を使えば、おそらくやがて解決できる問題だと思われます。

 また、教科書の準拠版をつくっている教材会社は、教科書会社ごとの漢字配当表や学習用語配当表をつくって、それを基にして、教科書対応の教材の表記を教科書別に統一しています。こうしたことは、AIに学習させることができれば、表記の基準の統一は直ぐにできます。しかし、そうしたデータが公開されていませんので、各社独自のものをつくっているわけです。それらがAIに簡単に実装できるようになれば、飛躍的に便利になります。でも、それがコストに見合うかどうかは不明です。もっと簡単に、しかも安価にAIが利用できるようにならないと難しいかもしれません。

 現段階では、自然言語処理といっても、コンピュータは、言語の意味を理解しているわけではありませんので、形態素解析から始めて、膨大なデータを統計処理して、いろいろな解析モデルを生成しています。言語の意味については、難しい問題があり、いまだに定説はありませんが、言語活動の中で立ち現れてくる何かであることは確かです。脳も、コンピュータと同じように膨大な神経細胞がネットワークをつくっていて、言語の音声データや文字データを聴いたり、見たりして情報活用しています。データそのものには意味は存在しませんので、脳は意識をつくり、その中に意味を生じさせていると考えるほかありません。いつの日か、コンピュータが意味を理解できるようになったとき、本当のシンギュラリティが起こるのかもしれません。

 人間は、言語を獲得するために、身体を必要としています。それは、脳が必要という意味だけではなく、五感や運動機能の働きも含めて、身体の活動を伴って言語を獲得してきました。子どもが言語を獲得していく様子を見ていると、それがとてもよく理解できます。身体のいろいろな感覚器官や運動機能のネットワークによって、言語活動が支えられているわけです。コンピュータがやっていることは、表現された結果(無数の文字データや音声データ)を統計的に解析して、できるだけ人間に近い表現を探し、つくり出しているだけです。自動翻訳などは、その最たるものですが、それでも日本人が英語で科学論文を書くときにはとても役立っているそうです。遠い将来、コンピュータに意味を理解させるためには、そうした人間の身体性をコンピュータの中にどう組み込んでいくかが問題になると言われています。

 編集プロダクションの編集者としては、簡単にAIを使って校正ができるようになることを待つしかないのですが、現段階では、藤本さんが紹介してくれたサービスを活用してみて、いろいろ試してみると面白いと思います。私もいくつか試しましたが、コストの問題が気になりました。特に、私たちは、いろいろなクライアントから仕事を受注し、それに対応して編集業務を行っています。ある意味では、仕事ごとに、編集上のルールが変わることもあるわけです。そうすると、いちいち高額な利用料金を支払って、それぞれのクライアント用にカスタマイズした設定をするということになり、とても面倒だということになります。

 また、日本の特色なのかもしれませんが、クライアントは各社独自性を持つことを誇りとしているようで、表記の基準や編集ルールもまちまちです。いろいろなクライアントを抱えている編集プロダクションという立場では、表記の基準も各クライアントの表記の基準に従うしかありません。もう少し、業界標準ということが広がれば、もっとデジタルデータの活用ができそうです。しかし、いずれにしても、編集上のワークフローは、すべてデジタルデータを中心として進行していますので、このデジタルデータを有効に活用して、合理的、効率的なワークフローをつくれるようにしていく努力は必要だと思います。


(文責:東京オフィス 塚本鈴夫)