人工知能 : おうまがタイムズ

おうまがタイムズ

怖い話や都市伝説などの他オカルト全般をまとめています。心霊、意味怖、洒落怖、実話恐怖体験談や管理人の気になる情報を毎日更新しています。

おうまがタイムズ

人工知能

ai_man_akusyu
1 2020/07/22(水) 15:19:57.34 ID:cB9hgbZ99
「笑顔採用」始めます-。愛知県内で複数の保育園を運営する企業が22日、AI(人工知能)で面接者の笑顔を判定し、
採用の評価基準とするユニークな採用活動を始めた。「AIは面接用のぎこちない笑顔さえも見抜く。客観的に評価したい」
と担当者。(略)



【ついにAIが『面接者の笑顔』を判定し「採用」基準にする活動始まる!!】の続きを読む

1 2019/03/17(日) 18:16
日本政府は、人工知能(AI)を搭載し人間の意思を介さずに敵を殺傷できる兵器について、国際的な開発規制への支持を今月下旬の国連会議で表明する方針を固めた。規制に向けた専門家による委員会新設も提唱する。政府筋が16日、明らかにした。民生部門でのAI開発の妨げになりかねないとして、慎重な議論が必要だとしていた従来の立場を転換した形。「殺人ロボット兵器」に関する国際ルール策定を主導したい考えだ。

殺人ロボット兵器の開発を巡っては、国際人道法や倫理の観点から、中南米などで禁止条約制定を求める国があるが、開発を進めているとされる米国、ロシアなどは否定的。

2019年3月16日 18時22分
https://www.tokyo-np.co.jp/s/article/2019031601001982.html



3
ペッパー終わったな


4
米軍が1番力入れてるのに


11
つまりドローンも禁止と
自衛隊員を犠牲にさせていくんだね


【【ファッ!?】日本政府さん、「殺人ロボット」規制の支持表明へ・・・・・】の続きを読む

1 2019/02/21(木) 21:53
2019年2月21日 17時6分
http://news.livedoor.com/article/detail/16056014/



「ロボットのお嫁さんが誕生しました!つまり、あなたはもう結婚する必要はありません」中国企業はこのたび、人工知能(AI)を搭載したヒトの女性型ロボットを開発した。深刻な男女比の不均衡で、結婚できない男性のために企画され、「AI嫁」などと銘打たれている。

中国メディアは、AI技術の発展により世界初の嫁型ロボットの発表を報じた。顧客層のターゲットに定めらた未婚の男性たちは、2月の旧正月の帰省中に受けた親や親族からの結婚へのプレッシャーに辟易している。
報道によると、このAI嫁は一流の技術者により設計された。外見は見事に細工され、皮膚の質感や体温さえヒトと同じだという。雑談を交わすことができ、家事をこなす。



2
日本負けてんじゃねえかw


7
これは日本も全力で見習え


4
共産党の悪口を自宅でも言えなくなるな


5
ガチでほしい


【【おまえら急げw】中国が超かわいい「AIロボット嫁」を開発!!雑談に家事もこなすwwwwwwwww】の続きを読む

1 2019/02/21(木) 00:30
◆ AIは中立ではなく「女性嫌い」 検証結果で見えてきた負の側面

人工知能(AI)による採用審査など、日本でもAI社会の広がりを身近に感じるようになった。
だが、AIには「女性嫌い」という厄介な偏見があり、「ヘイト」を増幅させる危険性もある。
朝日新聞IT専門記者の平和博氏がAIの実態をレポートする。

IT5社の人工知能(AI)が男性を女性に間違える割合はコンマ以下。
一方、女性を男性に間違える割合は最大で2割近い──。

マサチューセッツ工科大学(MIT)メディアラボの研究者、ジョイ・ブォラムウィニ氏らは今年1月28日、ハワイ・ホノルルで開かれていた米国人工知能学会と米国計算機学会の会議で、AIが人の顔の画像から性別などの特徴を識別する「顔認識」について、IT各社の機能を比較した結果を発表した。

比較したのは、IBM、マイクロソフト、アマゾン、さらに米国のベンチャー「カイロス」と中国のサービス「フェイス++」の5社。その結果には、共通する傾向があった。

いずれも男性を女性に間違える割合は1%未満なのに、女性を男性に間違える割合は、はるかに高かった。最大のアマゾンでは19%。5人に1人の割合で女性を男性と判定するということだ。

つまり、いずれも女性に不利な傾向を示していたのだ。

さらにアマゾンでは、別の観点からもAIによる女性の扱いが問題となっていた。
AIを使った人材採用システムをアマゾンが開発しようとしたが、AIが「女性嫌い」で使い物にならず、断念した──ロイターが2018年10月にそう報じている。

(略)

●学習データに基づくAI、正確で中立だとは限らない

システム開発に際して担当者たちは、過去10年にわたって同社に提出された履歴書をAIに学習させた。
問題は、その大半が男性からのものだったということだ。そして、採用された技術職も大半が男性だ。

するとどうなるか? AIは男性の方が採用に適した人材と判断し、男性の履歴書の評価を高くするようになってしまう。
その結果、履歴書に「女性チェス部部長」のように「女性」という言葉が入っていると評価を下げていたのだ。
女子大卒業という履歴書で評価を下げられたケースもあったという。
(略)
※続きは下記のソースでご覧ください

AERA 2019.2.20 17:00
https://dot.asahi.com/aera/2019021900059.html?page=1  .



3
機械を作ってるのが男だからな


14
AIは実はまだAIじゃない だからだよ


24
性別に関するデータを与えなければいいのでは?


【【悲報】AI さ ん「 女 性 嫌 い 」だ っ た・・・】の続きを読む

このページのトップヘ