■大規模言語モデル「tsuzumi」で実現、オフィスワークや日常生活を支援
近年、AI技術は目覚ましい発展を遂げているが、従来のAIはテキスト情報しか理解できないという課題があった。NTT(日本電信電話)<9432>(東証プライム)は4月12日、大規模言語モデル「tsuzumi」を用いて、文書画像に含まれる視覚情報も理解できる「視覚読解技術」を開発したと発表。同技術により、AIは文書画像を提示されただけで、あらゆる質問に回答することが可能となる。
私たちが扱う文書は、テキスト情報だけでなく、図表や写真などの視覚情報も含まれている。しかし、従来のAIはテキスト情報しか理解できず、視覚情報を取り込んだ文書を理解することは困難だった。そこでNTTは、視覚情報も理解できるAIの実現を目指し、研究開発を進めてきた。
大規模言語モデル「tsuzumi」を用いて、視覚情報も理解できる「視覚読解技術」を開発。文書画像をLLMの表現に変換するアダプタ技術と、多様な視覚読解タスクを対象とした指示遂行データセットの構築によって実現した。AIは文書画像を提示されただけで、あらゆる質問に回答することが可能となる。例えば、請求書から必要な情報を抽出したり、専門文献から特定の情報を見つけたりすることができる。
NTTは、この技術を基に、視覚表現された文書を基に質問応答を行う技術やWeb検索など、産業上重要なサービスの発展に貢献していく予定。また、作業自動化をはじめ、ヒトと協働し、価値を生み出すAIの実現に向けて技術確立をめざしていく。同成果は、2023年度における東北大学データ駆動科学・AI教育研究センターの鈴木潤教授との共同研究の成果となる。(情報提供:日本インタビュ新聞社・Media-IR 株式投資情報編集部)