top of page
  • Hideya Tanaka

Issue 183 - AIとの信頼関係をどう築くべきか

今回のSeattle Watchでは、生成AIの進化に伴うAI規制の動向について紹介していきます。EUや米国ではAI規制の議論が先行しており、私たち人間がAIと信頼関係を築いていく上で、この議論はとても重要な立ち位置を占めています。

 

対話型AIの「ChatGPT」や画像生成AIの「Dall・E」といった生成AIが進化する中で、AI規制に向けた動きが世界中に広がっています。広島で開催されたG7首脳会議でも、責任あるAIの推進に向けて、「広島AIプロセス」(AI規制を議論する枠組み)の創設が首脳声明に盛り込まれるなど、グローバルなルールづくりも始まろうとしています。


AI規制の議論は欧米諸国が先行しており、企業もこの動向に注目して適切な対応を取らなければ、機会を逃したり、大きなリスクに晒されたりする可能性があります。ここではEU、米国、中国でのAI規制に関する現時点での議論や法案についていくつか紹介していきたいと思います。


EUでは、生成AIを含む包括的なAI規制案が欧州議会の委員会で5月に承認され、6月には本会議で採決が実施される見通しとなっています。この規制案は、AI を健康、安全、人権などのリスクの観点から、①許容できないリスク(禁止されるAI)、②ハイリスク(規制されるAI)、③限定リスク(透明性義務を伴うAI)、④最小リスク(規制なしのAI)の4段階に分類しています。そして、リスクの程度に応じて規制の内容を変えるというアプローチを採用しており、AIツールを使用する政府や企業は、リスクのレベルに応じて異なる義務を負うことになります。例えば、限定リスクAIの場合は、AIチャットボットと対話しているユーザーに、AIが関与していると知らせる義務や、コンテンツが人工的に生成・操作されたものであることを明らかにする義務などが生じる可能性があります。もし、こうした義務を遵守しない場合、そのAIをEU加盟国内で提供・販売する企業(海外企業も含む)は全世界売上総額の最大6%に相当する巨額の罰金が科されたり、EUでビジネスができなくなったりするおそれがあります。 https://www.soumu.go.jp/main_content/000826707.pdf


米国でも、バイデン政権がAIに関する責任あるイノベーションの推進策を発表しています。この施策には、責任あるAIの研究開発への投資、民間企業が開発した生成AIの客観的な評価(第三者検証)、連邦政府によるAI利用に関する指針の策定が盛り込まれています。また、政権高官らはAlphabet(Googleの親会社)、Microsoft、そして対話型AIを開発するOpenAIおよびAnthropicのCEOらと会合を開き、AIに関連するリスクや安全対策を巡って議論を行っています。 https://www.jetro.go.jp/biznews/2023/05/7c5bc3a8bf11f2ff.html


中国も生成AIの規制に着手しています。中国共産党はAI産業の発展を重視すると同時に、生成AIの自由な利用で政府批判が広がるのを警戒しており、党への脅威を排除する管理規則が近く施行されると見られています。中国政府が4月に発表したAIを活用したサービスに対する規制案には、生成AIを活用したサービスを提供する場合は当局の事前審査を受けることを義務づけるという内容も含まれています。また、AIが生成するコンテンツは、社会主義の価値観を反映し、差別やプライバシーの侵害を防止しなければならないとしています。 https://www3.nhk.or.jp/news/html/20230411/k10014035501000.html  


このように各国でAIを規制する枠組みの整備が進んでいますが、それと同じくらい重要な論点が、人間がAIをどれだけ信頼できるかという問題です。Microsoftでは「信頼できるAI」(Trusted AI)をキーワードに、AIの信頼性についてFATEという観点から取り組んでいます。FATEとは、公平性(Fairness)、説明責任(Accountability)、透明性(Transparency)、倫理(Ethics)の4つの要素のことで、AI学習に使われるデータの偏りからくる不公平性の問題、AIが誤った処理や判断をした場合の説明責任の問題、AIがどのようなプロセスで処理や判断を行ったかを明らかにする透明性の問題、そしてさまざまな文化や状況に応じた倫理問題への対応をそれぞれ意味しています。 https://pc.watch.impress.co.jp/docs/news/1046510.html


実際の現場でも、人間とAIの信頼を構築するための取り組みが行われ始めています。AIの透明性でよく取り上げられるのが、ブラックボックス問題(AIがどのような処理を行って、なぜその判断に至ったかをユーザーが理解できない問題)です。この問題が解決しない状態では、どれだけAIが優れていても、AIを信頼していない消費者や従業員にAIを使うように求めても、それを安心して使ってもらうことは難しくなります。そこで、英国のある自動車メーカーでは、AIツールの開発段階から現場の作業者を巻き込むことでこの問題に対処しています。同社では車体の組み立て工程にAIを導入して、不具合のある部品を特定することを目指しており、そのAIの開発段階において、AIのエンジニアが現場の組み立て作業者を巻き込み、彼らの現場での問題意識をヒアリングしました。その結果、現場の作業者はAIによる提案や警告をより容易に解釈して理解できるようになり、AIを信頼できる同僚としてみなすようになったそうです。 https://www2.deloitte.com/jp/ja/pages/technology/articles/tsa/tech-trends.html


コンサルタントの川口伸明氏は、著書「2060 未来創造の白地図」の中で、私たちはロボットやAIなどの機械的知性、あるいは機械的生命体とでも呼ぶべき多様な存在と共存する未来に直面するだろうと述べています。つまり、人間がAIなどの新しい知性とどのような関係を築くことができるかが今後の未来を大きく左右するでしょう。AIが人間の仕事を奪うという懸念もありますが、いつの時代も人間の仕事は変化してきました。最近では、プロンプトエンジニア(生成AIに対して人間がイメージしているコンテンツを適切に生成できるように命令を出すエンジニア)といった新しい職業も注目されてきています。AIとの信頼関係を築く上では、AIを適切に規制・コントロールすると同時に、AIとの協働を伴う新しい仕事に就けるように学び続ける姿勢がますます重要になってくると思います。



最新記事

すべて表示

SW 205 - Freight Tech and Reverse Logistics

今回のSeattle Watchでは、貨物不況の中でも活躍を見せているFreight Tech(フレイトテック)と、Reverse Logistics(リバース・ロジスティクス)について見ていきたいと思います。日本では、物流・運送業界の2024年問題が盛んに議論されていますが、米国では、物流業界の非効率や透明性を高めるような技術、そして返品文化の影響もあって発達しているリバース・ロジスティクスを支

SW 204 - Startup Scene in Seattle and Spokane

今回のSeattle Watchでは、最近のシアトルの資金調達の実情やスタートアップ動向に加えて、同じワシントン州の第二の都市であるスポケーンのテック関連の動向について紹介をしていきたいと思います。 Webrainは25年以上にわたってシアトルを本拠地としています。これまで何度かお伝えしてきているように、シアトルは、豊かな自然と活気ある文化に加え、世界有数のテクノロジーハブとして知られおり、Boe

SW 203 - MWC Barcelona 2024 and SXSW 2024

今回のSeattle Watchでは、2月末から3月上旬にかけて開催されたMWC(Mobile World Congress)とSXSW(South by Southwest)という2つの展示会で取り上げられた業界のトレンドや将来予測について紹介していきたいと思います。 MWC(Mobile World Congress)は、毎年スペインのバルセロナで開催される世界最大級のモバイル技術の展示会で、

bottom of page