大きな注目を集めている「ChatGPT」をはじめとする生成AI(ジェネレーティブAI<人工知能>)。驚異的な性能を持つ生成AIを使いこなすためには、どのようなスキルが必要なのでしょうか。AIと人間の付き合い方について、アクセンチュアの執行役員でAIグループ日本統括の保科学世さんに聞きました。『 責任あるAI 』『 HUMAN+MACHINE 人間+マシン 』などの著書もある保科さんに、今後のAIを考えるために手助けとなる本も紹介してもらいます。
前編 「ChatGPTなど生成AI 『人間の仕事を楽にする』だけの存在か」
人間に求められるスキルとは
生成AIを適切に活用するため、人間に求められるスキルには「人間がAIを補完するためのスキル」「AIに人間の力を拡張させるためのスキル」「人間とAIのハイブリッド活動」の3つのカテゴリーがあると、私は考えています(図表1)。
「人間がAIを補完するためのスキル」としては、まず人間の幸福度が最大化できるよう、人間とAIの仕事を切り分ける「(1)人間性回復」が挙げられます。人間は仕事をすることそのものや、そこで得られる達成感に幸せを感じている部分もありますから、分担を決めるのは重要です。
次に、人間とAIとが協働する形を、業務にしっかり定着させる「(2)定着化遂行」です。AI活用という新しい仕組みを導入し、業務を変えていくのには大きなパワーが必要です。ここは私たちコンサルティングファームにも求められるスキルでしょう。また、AIの提案を受け入れつつ、人間が最終的な判断をするポイントをどこに置くのか見極める「(3)判断プロセス統合」も欠かせません。
「AIに人間の力を拡張させるためのスキル」には、AIから効果的な答えを引き出すための「(4)合理的質問」、AIを仕事や生活でフル活用するための「(5)ボット活用」(どこまで活用できるかで、個々人で差が付いてしまう)、そしてこれはスキルと言うよりも感覚的なものですが、AIの能力を自身の一部として受け入れる「(6)身体的・精神的融合」が求められます。例えば、私はメガネをかけていますが、普段、「今、メガネで視力を拡張している」と意識してものを見ているわけではありません。AIも、このように自分の一部として使いこなせるようになることが求められるでしょう。
「人間とAIのハイブリッド活動」は、前編でも触れた「(7)相互学習」に加え、AIの急速な進化に合わせて、業務プロセスを見直し続ける「(8)継続的再設計」が必要となります。
「人間がやるべきかどうか」を決める
今挙げたスキルはAI活用に必要なものですが、AIにできることがますます増えていくなか、人間にはどのような仕事が残されているのでしょうか。これを考えるにあたり、AIの得意分野を人間と比較してみましょう。
処理のスピードや安定したサービスレベル、機械との対話、知識量、24時間365日の稼働が可能といった、一般的にコンピュータが得意とする領域はそのままに、生成AIは従来、人間にしかできないと思われていた対人コミュニケーションや作画、作曲、小説の執筆といった領域にまで入り込むようになりました。AIが描いた絵がコンテストで入賞したり、故人となった有名作曲家の特徴をつかんで新曲を作ったりもしています。
実際、それらは“クリエイティブ(創造)”ではなく高度な模倣なのですが、人間にしても過去の作品からインスピレーションを受けて創造するケースがあるわけですから、AIの作品を完全に否定できるわけではありません。
一方、人間にしかできないこととしては、情熱や人としての意思を持つこと、リーダーシップ、共感、五感を通した判断、課題定義、ルール定義、倫理判断、社会文化適合性の判断などが考えられます。課題定義のように、AIに聞けば回答してくれるようなものもありますが、ここで重要なのは「AIにできるかどうか」ではなく、「それを人間がやるべきかどうか」だと私は考えます。「AIにできるのだから、やらせよう」ではなく、人間が積極的に関与しながらAIの発展を促していくことが、アウトプットの品質を高めるために重要なのです。
リスクをどう軽減するか
ここで注意しておきたいのは、生成AIは潜在的なリスクを抱えていることです。どういった生成AIを使うかにもよりますが、AIに質問や課題を設定するインプットの段階では、入力するデータが漏洩するリスクがあります。
そして、アウトプットの段階では、AIが提示する情報が、必ずしも正確ではないというリスクがあります。AIは、インターネット上にある膨大なデータを学習して“もっともらしい”回答を出すことに長(た)けていますが、真偽や倫理性といったものは本質的には判断できません。AIがもっともらしい嘘の回答を生成してしまう「ハルシネーション」と呼ばれる現象が起きることがあり、これは「AIが見る幻影」とも言われています。
こうした虚偽やバイアスが含まれているかもしれないという信頼性の問題のほか、不適切表現などの倫理違反、著作権やプライバシーの侵害に注意が必要でしょう。
企業でこのようなリスクを軽減するために、自社内だけで稼働する専用のAIツールを活用する方法があります。そうすれば、AIにデータをインプットする際、外部に情報が漏れるのを防ぐことができますし、社内でAIに教育を施すことで、回答の精度を上げていくことも可能になります。
心とは何かを考え直すタイミング
AIを使えば、世の中の様々な知識・情報が手に入ります。人間はその膨大な知識・情報の表面だけを見て、世界のすべてを知ったような気になってしまうのではないか、外からの情報が多ければ多いほど、人間の内面(心)が置き去りにされてしまうのではないか――私はAIの仕事に携わる中で、そのような懸念を抱くようになりました。
また、先に述べた通り、AIが提示する情報には、誤りやバイアスがある可能性があります。しかし、人間もエゴや執着といった、個々人の心にあるフィルターによって、あるがままにものを見ることができなくなることがありますから、両者は似たようなものだと言えるかもしれません――そんなことを考えるうち、「そもそも心とは何なのか」という疑問が、私の中で大きくなってきました。AI活用を進めると同時に、人間とは何か、自己とは何かを今一度、見つめ直さねばならないのではないかと。
その手助けとなりそうな1冊が、『 唯識の思想 』(横山紘一著/講談社学術文庫)です。「唯識」とは、三蔵法師が命がけでインドから持ち帰った仏教思想の神髄とも言えるもので、日本では薬師寺や興福寺に受け継がれています。ごく簡単に言えば、世の中のすべての存在は、個々人の「識」(五感や意識)が現出させたものにすぎず実体がない、という思想です。私自身、完全には理解できてはいませんが(理解できていたら、きっと今頃、悟りを開いているでしょう)、本書は比較的分かりやすい内容で、AIに携わっている身からすると唯識は腹落ち感があります。
あたかも人間のように言葉を操るAIを、何も考えずに活用するのではなく、こうした東洋思想や哲学の力を借りながら、人間という存在そのものについて、心について、しっかりと考えるタイミングに私たちは来ているのではないでしょうか。
取材・文/暮 論子 写真/鈴木愛子
■参加方法はこちら ⇒ 創刊1周年 Twitterキャンペーン