1.「Data to AI企業へ」 AOSデータ株式会社 代表取締役社長 春山 洋
史上最速でChatGPTのユーザが1億人を超えたといわれ、AIの利用が一気に一般化する一方、AIシステム利用に伴うリスク、例えばAIによる技術的・経済的・社会的・政治的なリスクについての認識はまだまだ浸透していません。AIシステムの品質は、AIにどのような質および量のデータを継続的に学習させるかにより変わります。AIデータの品質管理のためには、学習データの適切な管理と保存、また、AIデータリスク管理の両方の仕組みが重要です。
AOSデータでは、AIデータ加工サービス「AIデータアノテーション」や、AIデータのリスク管理を行なう「AIデータディリスキング™ ALM」、データの保存・共有・活用を支援する「AOS IDX」といった、AIライフサイクルを支える各種ソリューションを提供しています。
AIの活用と品質向上、またリスク管理の重要性の啓発を行ない、日本のDX推進に貢献するため、当社は先進企業によるAIデータの活用事例やAIビジネスモデル、また専門家によるリスク管理についてご紹介する「AIデータフォーラム」を企画いたしました。当社ではAIデータライフサイクルマネジメントを共に推進するコラボパートナー様を募集いたします。
2. 「AIライフサイクルにおけるAIデータディリスキング ™ ALM」AOSデータ株式会社 取締役 志田 大輔
AI市場は活発に成長しており、AIが利用される分野や用途が拡大しています。「AIライフサイクル」とは、AIプロジェクトにおいて必要なデータを提供するためのデータ管理のプロセスです。AIシステムの育成においては品質・バランスが重要であり、AI学習用データに対して、高品質なマネジメントを行なうことが、AIの健やかな成長につながります。
「AIデータディリスキング™」とは、AIに関連するリスクを最小限に抑えるための一連の施策です。AIシステムにおけるリスクは、技術・経済・社会・政治など様々な切り口であり、個人情報漏えいや、AIを利用した際の法的責任、また意思決定時にバイアスがかかることなど、様々なリスクがあることを知り、適切なリスクマネジメント手法を知ることでリスクを軽減させることが重要です。
ウクライナのゼレンスキー大統領のフェイク動画が話題となったように、本人の動画や声を模したディープフェイクが問題となっています。ディープフェイクとは、特定の人物が本来の映像や音声として発信しているように見える非常にリアルな人工的な映像や音声のことです。今後は、ウイルス対策ソフトのように、ディープフェイクフォレンジックソフトが標準化していくとみています。
創業以来、AOSデータは人が使うデータの保管・共有・活用を支援するデータマネジメント事業を展開してきました。今後は、AIのためのAIデータリスク管理事業を推進し、AIプロジェクトをディープフェイク犯罪や、各種リスクから守る、AIライフサイクルにおけるAIデータリスクマネジメントサービスを提供してまいります。具体的には、AI学習用データのライフサイクルマネジメントやリスク管理を行なう「AIデータディリスキング™ ALM」を提供いたします。
3.「デジタルヒューマンのデータ管理・安全な利用法と活用例」クリスタルメソッド株式会社 代表取締役 河合 継 氏
クリスタルメソッド株式会社は、人に近いAIの開発やDX導入支援を行なっており、人の外見、声、個性などをそのままコピーし、デジタルツインとしてコンピュータ上に生成するなど、音や映像といったマルチモーダルなAI技術を得意としています。
デジタルヒューマンとは、アバターという言葉で認知されてきた自分自身の分身です。本セッションでは、「DeepAI」と呼んでいる実写版のリアルアバターを紹介します。
「DeepAI」とは、人間そっくりなAIであり、外見だけでなく、思考や個性も再現できるように開発を進めているものです。本人が話しているように自然な音声を話し、対話も可能になっています。「Deep Movie Creator」という製品をもとに、コールセンターの映像付き受付サービス開発や、特定の人をDeepAI化してカウンセリングを行なう、といった様々なサービスの開発を進めています。また、AI技術で亡くなった人との対話や、介護施設で高齢者との対話などをサポートしています。
一方、AI・人工知能によるフェイク動画の脅威も顕在化しており、本人と見間違うほどの水準で、同じような見た目や同じ声で話すデジタルヒューマンのリスクが、ゼレンスキー大統領の例で認知が広がりました。
米国ではAIのルール形成の重要性が認識され取り組みが始まっており、日本政府でも「AIの進化と実装に関するプロジェクトチーム(AIPT)で検討が進んでいます。
具体的なAIの法規制としては、サブリミナルな技法や、脆弱性の利用、公的機関のソーシャルスコアリング、法執行を目的とした公にアクセスできる場所における「リアルタイム」 遠隔生体識別システムなどは禁止されています。また、チャットボットにおいてはAIシステムと相互作用していると自然人に知らせる義務があり、ディープフェイクの場合はコンテンツが人工的に生成・操作されたものであることを明らかにする義務があります。
4.「AI開発に関する法規制のクリアと契約交渉のポイント」STORIA法律事務所 パートナー弁護士 柿沼 太一 氏
STORIA 法律事務所の共同設立者 柿沼先生の専門分野はスタートアップ法務、AI・データ法務、ヘルスケア法務などで、様々なジャンル(医療・製造業・プラットフォーム型等)の AIスタートアップを、顧問弁護士として多数サポートしています。
AI と法律・知財・契約に関する問題領域を整理すると、データを収集し、データセットを作り、学習用プログラムに入力してパラメータを生成する学習フェーズと、利用フェーズに分けられます。
AI ベンダが自らデータを収集して AI を生成する場合は、AI ベンダは生成行為のすべてを自社だけで行なうため、AIの生成に関して契約締結の必要性はありませんが、個人情報保護法や、著作権など、生成行為に関してデータに関する法規制や知的財産権の権利処理を行なう必要があります。ユーザから AI 生成の委託を受け AI ベンダが AI を生成する場合は、AI の生成に関してユーザとベンダとの間で契約を締結する必要があります。
特に、学習フェーズにおける個人情報の収集・利用に関するお問い合わせが多く、また、著作権を有する知財、契約・ライセンス両者を契約違反にならないように留意する必要があります。
AI ベンダが自らデータを収集して AI を生成する場合、データのコピーなど全て著作権者の同意が必要ですが、権利制限規定として「非享受目的利用(著作権法第30条の4)」は日本法が適用される場所においては、原則として著作権者の同意なしでOKです。
AI 開発契約に関しては、品質、知的財産権、AI ソフトウェアの開発・利用に関する損害の責任の所在、といった課題が挙げられます。これらに対しては、契約の調整・工夫や、ユーザとベンダの希望を調整する枠組みをつくることなど、各種の対応が必要となります。
5.「AIによるグローバルなリテールテックの推進とその実装について」データセクション株式会社 代表取締役兼CEO 林 健人 氏
データ分析の専門家として、テクノロジーで実社会に変革をもたらし、新しいくらしを創り上げる、というビジョンで創業し、技術×グローバルというキーワードで事業を展開しています。日本企業は国内市場を獲得し次にグローバル進出を検討することが多い一方、韓国や東南アジアの企業は、初年度に自国でサービスを立ち上げ、翌年度にはグローバル市場に進出する会社が多い。当社は、日本企業の技術力には、グローバルに展開できるポテンシャルがあると考え、日本の技術力のグローバル展開の推進を支援しています。
「Follow Up」というサービスでは、精度98%のAIカメラで正確に来店人数を把握し、来店客の導線や行動分析などをリアルタイムで分析した結果を、店長やスタッフがスマホやタブレットで見ることができます。
事例として、株式会社シップス様では、来店者分析を行ない、月額5~7%の売上向上につなげました。株式会社コスメネクスト様では、来店客の多い時間帯を把握し、スタッフの配置時間変更により売上増に結びつけたり、商品棚の欠品検知を行ない、購買の機会損失を減らすなど、来店分析を事業成果に結びつけています。
6.「現場で実装されるAI事例と、ノーコードでのAI内製化の展望」株式会社Lightblue Technology 営業 安達 琢朗 氏
株式会社Lightblue Technologyは、人にフォーカスする画像解析技術を大衆化し、全ての現場にデジタルの利便性を届けることを目指し、安全管理や生産性改善などに向けたAIやIoTシステムを開発する東大発のAIスタートアップ企業です。
非定形データを構造化するアプリケーション開発事業において、様々な実績があります。多く監視カメラのデータは、生データのままで活用されていません。そこで当社では、ディープラーニングなどを用いて作業ごとの分類や時間を取得し、データを統合し、可視化して分析可能なデータを生成する、といったサービスを提供しています。例えば、マスク装着時の目線の推定、商業施設の来店者分析、駅構内で券売機の前できょろきょろしている方といった危険行動の察知、作業工程を見える化し、工程に抜け漏れがあったロットだけ特定することでリコールで回収する対象を絞り込む、手すりをつかんでいない人にリアルタイムでアラートを上げ、階段昇降時の事故を防止する、など様々な事例があります。
また、ノーコードでのAI内製化として、動作解析AI をノーコード、ノーエンジニアで作成できるサービス
HumanSensing BASEも提供しており、エンジニア費のコスト削減に有用です。
7.「AI利活用における研究とビジネスの違いについて」東京大学大学院情報理工学系研究科教授 山崎 俊彦 氏
山崎教授は、東京大学大学院にて、人工知能、マルチメディア、コンピュータビジョン、機械学習、パターン認識などの研究およびビジネスに有用なAI開発を行なっています。魅力的なプレゼンテーション、魅力的なパッケージ、魅力的な広告など、共感や共鳴を引き起こし、記憶に残ることを「魅力」とする「魅力工学」を研究し、40社以上の企業と共同研究を進めています。
AIには様々なリスクがあります。例えば投資失敗のリスクがあります。高品質のAI開発には大量のデータをAIに学ばせることが重要であり、初期投資や十分な学習データの取得や準備が必要です。
法的なリスクもあります。物体認識系のAIが一般的に利用するImageNetという学習データは利用規約で商用利用不可と明記され、実際に海外で2023年2月に訴訟も起きており、注意が必要です。また、別の例ではありますが写真素材のポータルサイトがAI企業に対して訴訟を起こした例も2023年2月に起きています。日本の著作権法上は、AIのモデルには著作権はないとされていますが、海外展開時は当該国の法律を確認する必要があります。AIが学習するデータに偏見が含まれていたり、データが不均衡であることで起こるブランド毀損のリスクもあり、様々な対応策を含めどちらも専門家への相談が必要です。
少しの追加でAI誤動作や誤認識を起こす誤動作リスク、ディープフェイクなど偽造のリスクもあります。最近話題のChatGPTは現時点では2021年までのWeb上のデータを統計的に処理している生成系のAIであり、盲信や誤解というリスクもあります。また、秘匿データをサービスにアップロードする際にも契約条件などを十分に確認する必要があります。
AIは「道具」であり、料理のレシピや素材があっても、料理人がいなければ料理が出来上がらないように、AIの正しい使い方を学び、使う側の能力を高めることも必要です。法的解釈の動向や、技術革新による新たなリスクなど最新の情報にアンテナを張り、問題が起きたときには迅速な対応がとれる体制を構築することが肝要です。