人工知能(AI) は、人間の精神よりも進化しているという提案がありますが、そのほぼ無限の知識容量にもかかわらず、人工知能は人間の精神によって構築および操作され、人間の精神は、創造する際に簡単に移行できる社会構造を担っています。あらゆる種類のマシン。
2016年5月、調査新聞プロパブリカの「マシンバイアス」記事で発表され議論された報告書は、米国のいくつかの裁判所でリスク評価に使用されている代替制裁のための矯正犯罪者管理プロファイリング(コンパス)プログラムにバイアスがかかっていることを示した。黒人に対して。機械データは、黒人の被告は再犯する可能性が高いとラベル付けされ、白人と比較してその割合がほぼ2倍(45%から24%)であると誤って通知しました。
この場合の問題は、Compass や同様のプロファイリング プログラムが全国の多くの裁判所に存在し、裁判官やその他の職員の決定に情報を提供し、影響を与えていることです。そして、 の長い歴史を持つアメリカの司法制度が、より公平に見せようとしてAIに目を向けた結果、彼らが偏見を持っていることが判明した、と想像するのは皮肉なことです。
問題に関する警告
ソフトウェアを提供するノースポイント社は、新聞記事に掲載された報告書の結論に異議を唱えたが、同製品は「商業的にデリケートな」ものであるとして、コンパス社の内部事情を明らかにすることを拒否した。
しかし、問題はそこにとどまらず、2015年の調査によると、米国の最高経営責任者の27%が女性であるにもかかわらず、Googleで「CEO」という単語を画像検索すると、女性は11%しか表示されなかった。ピッツバーグのカーネギーメロン大学のアヌパム・ダッタ氏が主導した別の研究では、グーグルのオンライン広告システムでは、女性よりも男性に高収入の仕事が表示されることがはるかに多かったことが判明した。
マサチューセッツ工科大学 (MIT) の研究者ジョイ・ブオラムウィニ氏は、IBM マイクロソフトと中国企業 Megvii が開発した知能が、写真に写っている人の性別を 99% 正しく識別できることに気づき、AI に関連するさらなる問題を発見しました。ただし、それは白人男性の場合に限ります。肌の色が濃い女性の場合、ソフトウェアの顔認識精度は 35% に低下しました。
インターナショナル データ コーポレーション (IDC) によると、2022 年だけで、ソフトウェア、ハードウェア、サービスを含む人工知能市場から 4,328 億米ドルの利益を得るであろうこの業界において、この問題が再発していることは憂慮すべきことです。それは、計算ツールが高度になるにつれてますます不透明になるという、長年にわたって存在する避けられない恐怖です。

世紀の議論
2016年、人工知能に関する世界で最も重要な会議にスペインのバルセロナの講堂に5000人以上が集まりましたが、そのうち黒人は6人だけで、全員が男性と白人でした。ティムニット・ゲブルー博士、スタンフォード大学大学院生。
彼女はカリフォルニア州メンローパークのコンピューターからフェイスブックへの投稿で、心配しているのは機械が世界を征服することではなく、AIコミュニティにおける集団思考、閉鎖性、傲慢さだけだと書いた。
「テクノロジーを作成する人々はシステムの大きな部分を占めています。多くの人がその作成から積極的に排除されれば、このテクノロジーは一部の人に利益をもたらし、多くの人に害を及ぼすことになるでしょう」と彼女は書いた。
彼の短いマニフェストは、当時 AI 倫理グループの構築に取り組んでいた Google の注目を集めました。 Gebru が行ったことは業界に革命をもたらし、社会構造が生み出す問題から離れ、差別を減らし、より平等な未来を実現したいのであれば、異なる視点を持つ人材が必要であることを示しました。
それでも、これでは十分ではありません。実際、AI は、 Redditからポルノ サイトに至るまで、フィルタリングされていない大量のインターネット上のデータに基づいて、非常に複雑な計算を通じて単語の関連付けと相関関係を生成するため、単語と固定概念を区別する作業は非常に困難です。
「これらのアルゴリズムは、何百万ものウェブサイトを素早く読むことはできるが、何が有益で何が有害であるかをよく理解していない赤ん坊のようなものです」と生物医学データサイエンスおよびコンピューターおよび電気工学の助教授であるジェームス・ゾウは述べています。スタンフォード大学から、 CBCへの記事で。
ゾウ氏が共同署名した研究書では、最高のAI言語プログラムであっても人種や性別の問題があり、単語や固定観念のデータをフィルタリングすると、歴史的文書、音楽、その他の文化的参照の検閲につながる可能性があると示唆している。
つまり、この問題の解決は決して単純ではなく、それゆえに多くの議論が行われているのです。こうしたプログラムは社会に出るまで独学で学び続けた方がよいと主張する専門家もいるが、一方で、社会に出るまでは自ら学び続けたほうがよいと主張する専門家もいる。一方では、データに埋め込まれたバイアスに対抗するために、プログラムにはコードレベルで人間の介入が必要であると考える人もいます。
ミラ研究所の研究者であるサーシャ・ルッチョーニ氏にとって、解決策は、イデオロギー的な偏見、偏見、世界を吸収する方法を投影する責任があるため、どのようなタイプの人が AI モデルに関与するかにあるかもしれません。
