Aplikace Fotky Google dělá kolosální a rasistickou chybu
Od svého spuštění přitahuje služba Fotky Google pozornost specializovaných médií a uživatelů rovným dílem. A zdá se, že poskytlo definitivní řešení problému smartphonů a fotografie v současnosti: cloud s neomezeným prostorem a bez nákladů Samozřejmě s přihlédnutím k určitým limitům to v tuto chvíli nenaznačuje žádný vizuální rozdíl mezi komprimovanými fotografiemi a fotografiemi, které nejsou, aby se tyto bariéry nepřekonaly.To vše doprovázeno velmi zajímavými funkcemi jako je automatická tvorba animací či koláží nebo inteligentní organizace fotografií. Ale právě v této poslední funkci se služba podělala tím nejhorším možným způsobem
A až dosud byla služba téměř vše chvála, dokud si uživatel na sociální síti Twitter nestěžoval na zásadní chybu : označil fotku, na které jsou dva černoši (sám uživatel a jeho přítelkyně) v kategorii Gorily , uvnitř zvířata A blaženost , která může mít mnoho rasistické konotace a která vyvolala několik puchýřů jak na sociálních sítích, tak v Google
Po stížnosti mladého muže na Twitter, přímo zmiňoval Googlepožádat o vysvětlení v tomto ohledu, jeden z inženýrů odpovědných za službu netrval dlouho a odpověděl omlouvá se a přijímá chybu a snaží se nevstupovat do diskuse o jak nebo proč této záležitosti.
Podle Google této události litují a již pracují na vylepšení systému označování Fotky Google K dnešnímu dni služba analyzuje obrázky nahrané do tohoto cloudu, aby zjistila, co se na fotkách zobrazuje. Dosud poměrně úspěšná funkce, schopná detekce mrakodrapů, jezer, rozlišování zvířat, identifikace fotografií jídla, fotografií krajiny a velmi dlouhé atd. Je pravda, že má stále selhání jak si někdy splést psy s koňmi, nebo ne správně identifikovat některé prvky, které se zdají být jasné, překvapivé na jiných fotografiích vzhledem k jejich procentuální úspěšnosti.Ale Nikdy jsem si lidi nepletl s lidoopy A ještě méně, když jde o otázku rasy a barvy pleti.
Služba zřejmě stále potřebuje vylepšení, takže Google odstranil štítek Gorily , aby se tento problém neopakoval. Kromě toho tvrdí, že zdokonalují svůj algoritmus, takže analýza a značkování je přesnější Jeho systém je však chytrý a učí se analýzou nových fotek, takže se bude časem zlepšovat, jak jej bude používat více uživatelů.
Toto jsou obvyklé problémy při ponechání stroje na starosti, bez rozumové schopnosti osoba. V tuto chvíli se zdá, že se problém stal ošklivou anekdotou, přijímá nápravu opatření okamžitě a snaží se zmírnit tón týkající se problému rasismu.Samozřejmě to není první problém tohoto typu, který se vyskytuje. Jiné programy a rozpoznávací software utrpěly podobné problémy tím, že nedokázaly správně rozpoznat tón pleti uživatelů nebo špatnou identifikací světla a osvětlení fotografie.