Amazon, Microsoft i IBM wycofują się ze współpracy z policją. Powodem rasizm

Amazon, Microsoft i IBM wycofują się ze współpracy z policją. Powodem rasizm

Regulacja jest konieczna

Jednak cała technologia jest w znaczącej mierze nieuregulowana. To budzi obawy dotyczące niewłaściwego użytkowania i łamania praw człowieka. Badacz Joy Buolamwini z MIT Media Lab i Timnit Gebru, naukowiec z zespołu AI Google, przetestowali systemy Microsoft, IBM i chińskiej firmy Megvii. Okazały się one najmniej dokładne w odniesieniu do czarnoskórych kobiet.

Nawet amerykański rządowy Narodowy Instytut Standardów i Technologii stwierdził w opublikowanym w grudniu 2019 roku raporcie, że „większość” systemów rozpoznawania twarzy ma różne poziomy dokładności w przypadku różnych ras i płci.

Ponieważ policja używa systemów wobec czarnoskórych nieproporcjonalnie częściej plus systemy rozpoznają czarnoskórych nieproporcjonalnie mniej dokładnie, Amazon, IBM i Microsoft postanowiły wycofać się ze współpracy z policją, która ma zbyt dużo na sumieniu – mówiąc wprost.

Tymczasem, jak pisze CNN, inne firmy nie mają podobnych dylematów. Jak pisze CNN, nie ma wątpliwości, że problem powinien zostać uregulowany prawnie i to na najwyższym, parlamentarnym, szczeblu.

Czytaj też:
Po „Uncle Ben’s” kolejne rasistowskie marki znikną z rynku
Czytaj też:
Facebook usunął reklamy wyborcze Donalda Trumpa. Łamały regulamin, nawiązując do nazizmu?