M10 生成 AI(3)リスクと使用上の注意


日本では IT  DX  AI もひと括りにして、デジタル技術が進歩しているのだろう程度に捉えている企業経営者が未だに多い。デジタルトランスフォーメーションの理解も浅く、事業活動にデータ処理が伴えば何でも DX と見なしている日本の経営者にも、生成 AI による変革の波は押し寄せてくる。

しかも、生成 AI の社会実装には、企業社会とも密接に関わる「古くて新しい人間課題」が横たわっている。また開発途上の生成 AI には、それ自体に乗り越えるべき技術課題があることも指摘されている。取扱い次第では、人間社会に深刻な問題を引き起こしかねない。生成 AI のリスクと使用上の注意を記したい。

現時点での生成 AI の最大の留意点は、「虚偽のアウトプット」の可能性があることだ。これは「ハルシネーション・Hallucination(幻覚)」と呼ばれ、生成 AI が膨大な情報から確率をベースに素材を選別し組み合わせて返答することに起因している。

ChatGPT にはネット上の虚実入り乱れた情報が取り込まれており、汎用アプリとして利用する際は、返答を鵜呑みにはできない。大部分の正答の中に部分的に誤答が含まれると、真偽の見極めは難しくなる。特に知識が乏しい分野での利用には注意が必要だ。

対策には、ChatGPT のアウトプットを ChatGPT でチェックすることが考えられる。AI に気まずさのような感情はないので、尋ね方が違えば、いったん出した自らのアウトプットにも間違いを指摘する(「申し訳ありませんでした」などと返答することもある)。これを何回か繰り返すことで、より信憑性の高いアウトプットが可能となる。

逆に、特定の分野に限って正しい情報だけを強制学習させれば、人間より優れたパーフォーマンスを発揮させることも可能だ。一般人には難関な司法試験や医師国家試験などを ChatGPT がクリアできるのはこのためだ。

技術的には、ハルシネーションを完全に制御することは難しいとされる。しかし、人間にも勘違いや間違いはある。自動車の自動運転同様、ミスの確率が人間より少ないなら、社会実装に堪えると見ることもできるだろう。後は使う側の問題であり、道具としての「生成 AI を神格化しない」ことも大事だ。

しかし生成 AI には、人間社会にとって、より深刻な課題が存在する。「虚偽の情報拡散に悪用し得る」ことだ。イメージや音声生成 AI を使えば、合成写真や音声コピーの作成はお手のものだ。フェイク映像が簡単に作れる。先ごろ、トランプ米前大統領が警官に逮捕されたフェイク画像が拡散して話題になったが、この種の出来事がまん延すれば、人間社会は大きく混乱するだろう。

小説や絵画の盗作も容易に出来る。特定の作家や画家の作品を全て学ばせた上で、それなりのプロンプト(入力指示)で同様の作品がつくれる。スタンフォードの講義では、一枚の風景写真を油絵画像に変換し、さらにそれをゴッホ風やルノワール風などに変換する事例を引いていた。一見して巨匠との区別はつき難い。文章でも音楽でも同様のことが言える。こうなると「著作権の定義や範囲」を見直すだけでなく、「人間の創作価値」を根底から問い直す必要が出てくる。

当然ながら法整備も急がれる。インターネットが普及して久しいが、匿名での誹謗中傷対策を始めサイバー社会での規制が進んでいない。スタンフォードのコースでも、この分野の知見が最も手薄に感じられた。もしも将棋に、80 マスどこへでも飛んで行ける「天機」(ドローン)という新駒が加われば、勝負は先手の一手で即ついてしまう。新たな駒の受け入れには、新たなルールが不可欠だ。生成 AI はこれに匹敵するインパクトがある。

人類は、生成 AI だけでなく、原子力や遺伝子医療など、一つ間違うと自らではコントロールし得ないほどの威力をもつテクノロジーを生んだ。このような創造物が出現した時、常に立ち返るべき立ち位置がある。これらを「人間社会のために正しく使う」理性だ。我欲や(国家を含む)限られたコミュニティの利を超えて、地球上の人間と人間社会のあるべき姿を追求する洞察と理性が問われる。

原子力や遺伝子医療は、取扱える人間が限られる。しかし生成 AI は、早晩、万人が使うようになるだろう。以前の留考録*で、社会行動の中で人間が問うべき根源的テーマは「自分の利を欲する行為が、他者の利を損なう時、自らをどう律するか」だと記した。この「古くて新しい人間課題」が、生成 AI がもたらす未来社会にも、それに伴う事業運営にも、大きく問われることになる。


*(関連留考録)M6 経営リーダーの倫理学・事業活動を支える「道徳哲学」