推奨されます, 2022

エディターズチョイス

人種差別主義AIを開発するためのお湯でFaceApp

Wireless Lab - ロシアの会社 - がFaceAppを立ち上げたとき、彼らは明らかに人々がそれを好きになるだろうと思っていました。 率直に言って、アプリはあなたのselfiesに素晴らしい写実的な効果を加えることができるAIベースの画像処理で、それのために行くことがたくさんあります。

FaceAppは、その外観上(意図しない)、素晴らしいアプリのように思えます。 ユーザーは自分撮り写真をクリックするか、ギャラリーから画像をインポートし、さまざまなAI支援フィルタを使用して自分の表現を変更したり、年齢を変えたり若く見たりすることができます。正直に言うと。

しかし、このアプリはTwitterや他のソーシャルメディアネットワークで攻撃され、アプリの「Hotness」フィルタがユーザーの肌を明るくしているとユーザーが報告し始めたときです。 それは信じられないほど人種差別的で、公衆データセットの代わりに彼らの個人データセットを使用してAIを訓練していたので、社会における「辛さ」の基本的な考え方について…。

その念のために、Wireless Labはすぐに取り上げ創設者兼CEOの「Yaroslav Goncharov」は「 疑いもなく重大な問題」と呼んでいるが、その主張を主張してアプリを擁護しながら、アルゴリズムを謝罪する電子メールステートメントを発行した。この問題は「トレーニングセットの偏り」が原因で発生したものであり、意図的な動作ではありませんでした。

Wireless Labは、一時的な修正として問題のフィルタの名前を「Hotness」から「Spark」に変更しましたが、間もなく恒久的な修正が行われる予定です。 奇妙なことに、FaceAppがソーシャルメディアに絶え間ない攻撃を受けている一方で、Playストアにはまだ「hotness」フィルタが削除された理由を疑問視し、開発者に「無視する」よう依頼することでいっぱいです嫌い」 明らかに、人類は修正する必要があります。

Top