グロービス経営大学院の教員らが2022年の注目トピックを取り上げるシリーズ。今回は「テクノベート」編vol.2です。あらゆる事柄のオンライン化、人工知能やブロックチェーン技術を用いたサービスの普及……テクノロジーによる様々な出来事があった2021年でしたが、2022年には何がトピックとなるのでしょうか。テクノベート時代の問題解決手法を学ぶ「テクノベート・シンキング」を担当する岡 重文と、テクノベート領域の科目開発やプロダクト開発に取り組む八尾 麻理の2名に、2022年を紐解くテーマを聞きました。
DX時代だからこそ、デジタル技術を前提としたリスキリング
岡 重文
リスキリング、最初に聞いたときは恥ずかしながら、「リスク」+「キリング」、どういうこと?でした。そうではなく「リ」+「スキリング」、そう、学び直すということです。
時代や新しい職場に求められるスキルを必要に応じて習得するという考え方で、考え方自体は目新しいものではありません。ではなぜ今注目されているかと言うと、昨今のDX化の流れを踏まえ、多くの人が習得する必要がある「デジタル技術」という新しいスキルが出現してきたという背景があるからです。
では、デジタルの活用を前提とした「リスキリング」に一歩踏み出すために必要なことは何でしょうか。出発点は、「デジタル技術」がこれまでとは180度違う世界を可能にするということを、実感をもって理解できているかにあるように思います。
スマホとSNSは個人へのアクセスと、さらには個人からの情報収集を可能にしました。オンラインの環境は働く場所の概念を180度変化させました。また、AI(機械学習)の出現と進化によって、人の役割は、アルゴリズムを作るということから学習のためのデータを用意することへ変わってきています。それは同時に、アルゴリズムが組めなくても、少しの理解があれば新たな可能性がある世界に参画ができるということを意味しています。
インターネットが普及し始め、パソコンがネットワーク化されだしたのが25年前、この25年に起こった変化は劇的です。一方、さらに25年先に目を向けると、今後起こる変化は過去25年に起こったものよりもさらに大きなものになるはずです。デジタルの理解がなくとも生きていくには困らないでしょう。ただ、逆に理解があれば、自らが何かを仕掛けていく側にまわることができるかも知れません。
2022年、リスキリング元年として、皆さんも是非、一歩、踏み出してみてはいかがでしょうか。
パンデミックからの夜明け 「責任あるAI」への投資が加速
八尾 麻理
コロナ禍の2年で、AIは世界のデジタル変革を加速させました。一方、新たなAIの担い手となった企業の多くが、信頼性や安全性の問題を後手にしていることに気づき始めるのもこれからです。従来のコストでは十分なリスク管理ができないという問題に直面することも予想されます。
というのも、2021年4月、EUが世界初となる「AIに関する包括的な規制案」を公開したことで潮目が変わったと見る動きがあるからです。これまで世界では、AIを活用する企業や業界団体が倫理的で「責任あるAI」を運用するガイドラインを自主的に定め、緩やかに規範を保つ「ソフトロー」を支持してきました。しかしこの法案は、EU域内へ商品やサービスを提供する事業者を対象に、AIのモデルとそれを包むシステムのリスク許容度に応じた管理と厳罰化を求めるものであり、EUは「ハードロー」へ舵を切ったと言えます。
背景には、AIが世界レベルであらゆる規模の企業・分野へ浸透し始めたことがあります。従来から懸案であった、AIによる顔認証や信用スコアリングで助長される差別や偏見の問題、人の介在なく判断が自動化されることで甚大な事故を起こす危険性、人物の画像や音声を高度に合成した「ディープフェイク」などの巧妙に人を欺く技術の悪用などを通じて、社会に混乱が生じる可能性を放置できなくなってきたのです。
EUでは先の法案が、2つの立法機関での審議を経た22年後半にも発効される可能性があり、さらに2年程度の施行期間を経て事業者への規制適応が始まる見込みです。
ここでAIを活用する企業への導入が広がると予想されるのが「責任あるAI」をサポートする技術群です。
例えば、なぜそのような予測となったのかの説明が難しいAIの「ブラックボックス問題」を解消する「説明可能なAI(XAI;eXplanation AI) 」は、医療や自動運転や故障予知といった社会システム上クリティカルな分野を中心に実用化が進んできました。
他にも、複数組織によるデータ共有で懸念される機密漏洩やプライバシーの問題解消に向けて、データを集約せずに分散した状態でAIの学習を行う「連携学習(Federated Learning )」や、ユーザ端末でAIを実行するAppleの「オンデバイスAI/学習(On Device AI/Learning)」など、必要以上にユーザデータを保有するリスクを回避する技術も普及してきました。また、個人の顔が写り込んだ画像を他のAIが顔認証できないよう加工する「非識別化(De-Identification )」技術などの採用も始まっています。
これらはあくまでも「責任あるAI」をサポートする技術の例示であり、法制化の動きもきっかけに過ぎません。本質的には、AIを活用する企業には、問題が起こることを前提に、高い倫理観をもって必要な体制を整えることが求められます。AIの予測に100%の確度は望めませんし、リスクも伴います。自社組織への啓蒙とAIの開発・運用におけるモニタリングや第三者評価の仕組みを持つなど、2022年は「責任あるAI」に向けた投資に待ったなしです。
(執筆者:岡 重文、八尾 麻理)GLOBIS知見録はこちら