人工知能:4つの注意点
現代では、人工知能とその応用について真剣に考えなければ、企業の永続的な変革を実現することはおそらく不可能でしょう。AIの「説得力」、つまり人間がAIをどれだけ理解し信頼するようになれるかと、AIをどのように展開するかは、現在進行中の変化を導く上で重要な要素です。これはイプソスフランスが属する市場調査業界でも同じです。
とは言うものの、私たちはAIがただの道具だということを明確にする必要があります。私たちが直面している問題は、激変する世界において、どうやって専門性を再構築し、ビジネス上の意思決定の正確性を向上させるかということです。これには、技術、科学、ノウハウの新しい三角形のパラダイムが必要であり、そのすべてが「データ非依存」であると私たちは考えています。このレンズを通して見ると、AIは主に人間、組織、文化の変化の問題として見ることができます。
では、なぜ多くの専門的な変革プロジェクトが、本当の意味を持たない単純な「AI投資」になってしまうのでしょうか。
確かに、人工知能は今や私たちの身近に存在しており、社会的、倫理的、法的な問題を提起していることから、第四次産業革命の黎明期には、人工知能に人類の救いとしての希望を託すという反対論を脇に置いて、企業変革の計画はしばしば「技術的特異性」(人々を機械に置き換えること)という神話との関連で異議が唱えられます。
要するに、AIが変化を加速させると、人々を恐怖に陥れ、同時に想像力を刺激するという事実を無視することはできません。このような陳腐な決まり文句を超えて、今こそ、AIを扱う企業の真の責任と、AIをどのように表現するかについてのメディアの責任について考えるときです。私たちがAIに反対して耳にする不満や懸念は、個人の自由、雇用、社会的結束、人間の知性という4つの主要な問題に集約される傾向があります。ここでは、企業やメディアに対して「責任ある警戒のポイント」を推奨することで、それぞれに対処しています。
1- AIと個人の自由
マサチューセッツ工科大学(MIT)のEric von Hippel教授は、人工知能を次のように定義づけています。「現在のAIはただの道具にすぎない。であるから、他の道具と同様に使用方法が重要である。例えば、ナイフという道具は武器にもなる。」
中国は国民を監視・統制する人工知能の開発を進めてますが、人工知能研究者のYoshua Bengio氏はこの動きを非難しています。中国のシステムは、各個人に関するさまざまなデータを集約し、その個人の「社会的スコア」としています。悪いスコアを持っているということは、飛行機で旅行したり、特定の仕事に応募することができないということです。
この点に関して、科学者のJoël de Rosnayは以下のように考えています。「中国で行われていることは、非社会的な行動を制限する手段として欧米の民主主義諸国にとっても脅威となっている。[...]私たちはダボスでそれについて話し、そのような流れを防ぐためにAI倫理委員会が設立されている。」
欧州連合(EU)については、2018年に施行された一般データ保護規則(GDPR)により、個人の自由を保護するための措置を講じてきました。また、ビッグデータが登場するずっと以前から、フランスは国民の私生活を保護することに慎重でした。フランスの情報処理及び自由に関する全国委員会(CNIL)は1978年に設立された。市場調査の世界では、アンケート回答者の秘匿性、匿名データの原則、法律の枠組みに沿って発展した原則が常に本質的に尊重されてきました。
とは言え、Googleの検索結果のページ、NetflixやAmazonのおすすめ情報、Facebookのユーザーの興味に合わせたセレクション、インスタント翻訳、パーソナルボイスアシスタント、チャットボット、GPSナビゲーションなど、AIは今やわれわれの日常生活に深く根付いており、常に意識しているわけではありません。
2- AIと雇用
AIが雇用市場に及ぼす影響に関する予測は議論の的となっています。McKinsey*の報告によると、AIによるフルタイム換算雇用の減少は、2030年までに国際的に18%に達するとされていますが、これは17%の雇用創出率によって相殺されるでしょう。
「人工知能の目新しさは創造的破壊の過程に対応します」とJoel de Rosnayは指摘しています。「そう、仕事はなくなりますが、人工知能はまた、より多くの仕事と新しい職業を生み出します。」
では、雇用の大量破壊ではなく、雇用市場の改革という観点から話す方が適切ではないでしょうか。これは、昨年発表されたBCG Gamma とイプソス**が7カ国で実施した調査の結果のひとつでもあります。AIをベースにしたツールをすでに使用している従業員の53%が自分の仕事が変わると思っており、一方、仕事がなくなると思っているのはわずか33%です。
本当のリスクは、高度な専門職と低技能/低価値の職業との決定的な分離にあります。社会学者のAntonio Casilliは、最新の著書『En attendant les robots (Seuil)』の中で、現在大きなデジタルプラットフォームのために運用されているAIの背後にあるデジタル労働を批判しています。「多くの専門化されていないマイクロ・ジョブが、データの選択、改善、解釈可能化に必要な作業を行う。[...]デジタル労働は、究極的には 「手作り」 の人工知能を生み出す上で不可欠であることが証明されている。」
このことは、フランスの数学者で政治家でもあるCédric Villaniが、2018年3月にフランス政府に提出した「AIに意味を持たせる」という報告書の中で警告「人間の仕事と機械の活動の間の豊かな補完性のための手段を開発することが優先されるべきである」を説明しています。
例えば市場調査の世界では、AIは新しいアプリケーション、新しい職業、新しい形の価値を生み出してきました。Syntecのような企業は、テキスト、画像、ビデオ、音声を用いて、データ科学における新たな機会の促進に取り組んでいます。チャットボットの大規模な自動化や、パネリストの不正対策などの強化された品質プロセスはすべて、さまざまなトレーニングの背景や新しい役割を持つ新しい仕事を表しています。イプソスでは、業界をリードするソーシャル・リスニングのプラットフォームであるSynthesioを買収した後、フランスにデータ管理センターを設立しました。現在ではこれらの新しい知識タイプのハブとなり、イプソスのエキスパートやクライアントとともに、私たち自身の文化的な変化をサポートしています。
3- AIと社会的結束
どのようにデータを処理し、アルゴリズムを構成する基準を定義するかという選択によって、AIは社会にすでに存在するあらゆるバイアスや識別を再現し、さらに増幅することができます。「人工知能は排除すべき新しい機械ではない。それは、これらの技術[...。]が我々の社会と個人の価値創造と発展の素晴らしい機会を開拓する状況の中での民主的な必要条件だ。これらの機会はすべての人に利益をもたらすはずだ。」とCédric Villani は報告書の中で警告しています。アルゴリズム開発者からエンドユーザーに至るまで、AIエコシステムのすべてのプレーヤーには、AIが社会的結束を促進し、維持することを保証するための注意が求められます。
もう1つの疑問は、AIが現在の社会に存在する微妙なバランスに影響を与えるかどうかです。例えば、個人の法的なプロファイリングが増加していることで、人々がより広く多様で相互に関連し合った社会の一部と感じるのではなく、彼ら自身の文化の枠に人々を閉じ込め、Hi民主的多元主義を弱体化させる危険性が生じるのではないでしょうか。
これは妥当な懸念かもしれませんが、AIが社会構造を強化し、大規模な新しい形態の連帯を生み出すことを可能にすることを示すイニシアティブがいくつかあります。例えば、国連開発計画(UNDP)の枠組みの中で、最近立ち上げられた60カ国の国立加速器研究所のネットワークがあります。それは、ソーシャルネットワークを利用して、恵まれない人々の日常的な問題に対する革新的な地域的解決策を見つけ、その実施を可能にし、その普及を加速させることを目的としています。これは、MITとイプソスによって国連に提出されたアルゴリズム・プロトコルの野心的な取り組みであり、AIの連帯の可能性をさまざまな方法で証明しています。
4- AIと人間の知性
Elon Musk氏のOpenAI社で、GPT-2というプログラムを使って絶対的に信頼できる偽のメディア記事を作ることができることが明らかになったことは、本当に恐ろしいことです。フェイクニュースの時代にあって、それは人間の知性に対する挑戦です。OpenAIは現在、GPT-2の配布を中止しています。
しかしAIは、ボトムアップの勢いを生み出し、協調的な知性を高めるために、個人の知性をプールすることができる素晴らしいツールでもあります。Lead User Innovation Identificationメソッドを例に考えてみましょう。このアプローチは、「オープン・イノベーション」の国際的専門家であるEric von Hippel教授が率いる、イプソスもメンバーになっているMITのInnovation Labで開発されました。この高速で効率的な研究方法は、言葉、写真、動画を用いた意味解析システムに基づいています。ソーシャルネットワーク上での会話では、スポーツなどの分野のエキスパートであるエンドユーザー自身が開発した新しい製品や発明を検出します。これは、マーケティング・モデルを再考し、企業が新しい製品やサービスを追求する際に、真に人間中心の戦略を考え出すよう促すための貴重な材料となります。ですから、AIを通して非人工的な人間の知性の出現と発展を促すことができます。
このように見ると、AIはスマート思考を加速させます。「私は、人工知能というよりは、補助知能について話したいと思います」と、Joël de Rosnayは言っています。「その補助知能は、私たちが一緒に物事をよりよく考えることを可能にし、人間性の肯定的な変化につながるでしょう。」
企業が製品やサービスを通じて社会に影響を与えることを考えると、私たちは人工知能に関する議論で社会のモデルに疑問を抱かざるを得ません。市民、消費者、従業員が常により多くの意味を求めている現在、個人への敬意と経済的目標、企業の誠実さを結びつけ、責任感と倫理感を示す方法でコミュニケーションを行うのは、AIを利用する企業の責任です。
このことを念頭に置いて、Ipsosは現在、Total Understandingプログラムの枠組みの中で、学際的かつ国際的な科学機構を発足させています。このプログラムでは、倫理はAIとともに完全な意味を持つことになります。私たちは、消費と意見形成の原動力となるものについて、社会科学、言語科学、認知科学、神経科学、データ科学から得られる深い、全体的かつ科学的な理解を取り入れます。
それぞれの企業が変革していく中で、AIの活用とともに企業倫理委員会を組織すべきです。これにより、人間中心であることを証明し、消費者、市民、社員の倫理的な願望を形成します。この「補助知能」が人類の最も啓蒙的な側面を目覚めさせたとしたらどうでしょうか?
本稿はフランスで出版されたものの再掲ですー Strategies [No 1987], March 2019