今週のざっくばらん
Google Geminiの失敗が明らかにしたGoogleが抱える大きな問題
先月、Googleが最新のGeminiを公開した途端に、OpenAIが、画期的な映像生成AI soraのデモ映像を公開したため、多くの人の注目が Sora の方に向いてしまいました。サービスのリリースではなく、単なるデモ映像の公開でしかなかったので、わざと Gemini の発表にぶつけて来たと解釈する人もいるぐらいです。
そんな形でリリースされた Gemini ですが、その後、とんでもなくネガティブな形で注目を集めてしまいました。Gemini で歴史上の人物の画像を生成すると、その人物が白人男性であっても黒人や女性の画像を生成してしまう、というバグが発見され、それがSNSを通じて大きく拡散されてしまったためです。
典型的な例が、「1929年のドイツ兵士のイメージ」を生成した例です。
こんなことになった理由は、Google内部にある DEIムーブメントによるものです。
DEIムーブメントは、多様性(Diversity)、公平性(Equity)、包括性(Inclusion)を実現することを目指す社会運動で、人種、民族、性別、性的指向、年齢、宗教、社会経済的地位、障害、経験、考え方など、あらゆる個人差を受け入れ、すべての人が能力や貢献度に応じて平等な機会を得られ、すべての人が尊重され、価値ある存在として認められ、組織や社会に参加できる社会を目指す、という社会運動です。以前にこのメルマガで紹介した、(過剰にまでに社会の弱者を擁護する)WOKEムーブメントにも通じるものです。
Googleに限らず、人工知能の開発をしている企業は、どこも、人工知能が差別的な文章や画像を生成しないようにさまざまな努力をしています。人工知能は、世の中に実際にある文章や画像を学習データとして与えられて作られますが、データに偏りがあると、人種差別や性差別をするようになってしまいます。
分かりやすい例が「医者」や「看護師」の写真を生成するケースです。最近は、女性の医者や、男性の看護師も増えたとは言え、「医者は男性、看護師は女性」という時代が長く続いた結果、単にネット上にある写真を学習データとして人工知能を作ると、「医者の画像」を要求すると男性の医者の、「看護師の画像」を要求すると女性の看護師の画像を生成してしまうのです。
画像生成AIである Dall.E にこの問題があることを指摘された OpenAI は、この問題に対処するために、ユーザーが入力したプロンプトに細工をするなどの工夫をして対処したことが知られていますが、根本的に解決することは簡単ではありません。
この記事は約
NaN 分で読めます(
NaN 文字 / 画像
NaN
枚)