ダイバーシティをビジネス視点で考える PINGUINC. > NEWS > 書籍分析に基づくジェンダーステレオタイプ
NEWS
2019.09.13

書籍分析に基づくジェンダーステレオタイプ

目次

350万冊の本の分析に基づく最近の研究は、文学におけるジェンダーステレオタイプに焦点を当てている。

対象となった本は全て1900年から2008年の間に英語で出版されたものだ。

 

この研究によれば、女性はより肉体的に描写され、男性はより精神的に描写されているとのことだ。

女性に対しては二つの形容詞が最もよく使われ、「美しい」「セクシー」の二語だった。一方、男性に対しては「正義感のある」「合理的な」「勇気のある」といった言葉が使われている。

レポートによれば、ネガティブな描写は女性の方が男性の5倍見受けられたが、一方でポジティブな描写も女性の方が男性の2倍見つかった。

 

研究者たちは、差別の影響は読者の心にバイアスを作り出すことよりはるかに大きく、これは未来のAI技術においてもバイアスを生み出すであろうと主張する。

「アルゴリズムはパターンを認識するために動く。そして、何かが観察される時はいつでもそれが‘’真実‘’だと解釈する。もし何らかの形でバイアスがかかった言葉に触れれば、結果もまたバイアスがかかるだろう。システムはいわば我々が日常で使う言語を採用するのだから、それはつまりジェンダーステレオタイプや先入観も受け入れることになる」と、レポート作成の中心人物で研究者の一人でもあるイザベル・オーゲンシュタイン(Isabelle Augenstein)は述べる。

彼女はまた、新しい技術を使って人を雇ったり昇進させたりする時にもこれは問題になるだろうと説明している。アルゴリズムにバイアスがかかっていれば、選ばれる人間にもバイアスがかかるだろう。

A recent study based on the analysis of 3.5 million books highlights the gender stereotypes in literature.

All the books were published in English between 1900 and 2008.

 

The study reveals women tend to be more physically described and men more mentally described.

The two most used adjectives for women were “beautiful” and “sexy” while “righteous”, ”rational” or “brave” was used for men.

The report reveals that negative descriptions occur 5 more times for women than men but on the other hand positive descriptions also occur 2 more times for women than men.

 

The researchers also declared the discrimination impact goes further than just creating biases in readers minds, it will also create biases in the future AI technology .

“The algorithms work to identify patterns, and whenever one is observed, it is perceived that something is ‘true’. If any of these patterns refer to biased language, the result will also be biased.” “The systems adopt, so to speak, the language that we people use, and thus, our gender stereotypes and prejudices,” said Dr. Isabelle Augenstein, one of the researchers at the origin of the report.

She also explains it can become a problem in recruitment or promotion process using new technology to determine the best candidates to hire or promote. If the algorithm is biased, the sorting candidate will be biased.

SHARE
RELATED
MORE
RECOMMEND