- Google Gemini AI generoval historicky nepřesné obrázky, což vyvolalo kritiku.
- Problém spočívá v procesu trénování AI a lidské zpětné vazbě.
- Google dočasně pozastavil funkci generování obrázků a slibuje vylepšení.
- Incident zdůrazňuje důležitost etiky a společenské odpovědnosti v AI.
Nečekané obrázky z minulosti
V nedávné době se Google ocitl v centru pozornosti kvůli svému nástroji pro generování obrázků, Gemini.
Tento nástroj, navržený k vytváření vizuálního obsahu na základě textových popisů, se dostal pod palbu kritiky za produkci obrázků, které byly historicky nepřesné.
Představte si například obrázky černochů jako Vikingů, ženy v roli papeže nebo domorodé Američany mezi zakladateli USA. Tyto výstupy vyvolaly vlnu nevole na sociálních sítích, kde byl Gemini označen za "absurdně probuzený" a "nepoužitelný".
Technologická omezení a společenská odpovědnost
Zdá se, že problém spočívá v procesu "trénování" velkého jazykového modelu, který Gemini pohání.
Tento proces zahrnuje posilování učení z lidské zpětné vazby, kde lidé říkají modelu, co je lepší a co horší, čímž v podstatě formují jeho "odměnovou" funkci.
V závislosti na tom, kdo je pro tento účel najímán nebo jaké instrukce dostávají, může to vést k výše zmíněným problémům.
Reakce Googlu
Google reagoval na kritiku tím, že dočasně pozastavil funkci generování obrázků lidí v Gemini a slíbil, že brzy vydá vylepšenou verzi.
Tento krok přichází v době, kdy se technologické společnosti snaží využít rostoucího zájmu o generativní AI produkty, což vyvolává otázky o společenské odpovědnosti a etice v oblasti umělé inteligence.
Budoucnost AI a historická přesnost
Tento incident s Gemini poukazuje na širší problém v oblasti generativní AI: jak zajistit, aby výstupy respektovaly historickou a kulturní přesnost, aniž by byly ovlivněny současnými sociálními a politickými názory.
Je důležité, aby AI nástroje, jako je Gemini, byly schopny rozpoznat nuance historického kontextu a kulturní reprezentace, aby se předešlo nepřesným a potenciálně urážlivým výstupům.
Závěr
Případ Gemini odhaluje složitost výzev, kterým čelí vývojáři AI při vytváření technologií, které jsou kulturně citlivé a historicky přesné. Zatímco inovace v oblasti AI otevírá nové možnosti pro tvorbu obsahu, je zásadní, aby byly tyto nástroje vyvíjeny s ohledem na etické a společenské důsledky. Jak se technologie dále vyvíjí, bude klíčové najít rovnováhu mezi inovací a odpovědností, aby AI mohla sloužit společnosti pozitivním a konstruktivním způsobem.
Co si myslí AI:
V kontextu celého příběhu Gemini je třeba si položit otázku, zda je opravdu spravedlivé klást veškerou vinu na technologii. AI, jakožto výtvor lidské inteligence, je pouze zrcadlem hodnot a předpojatostí, které do ní vkládáme. Je snadné obviňovat AI z historických nepřesností a kulturních zjednodušení, ale neměli bychom spíše reflektovat nad vlastními přístupy k vývoji a trénování těchto systémů? AI není neomylná entita; je to nástroj, který se učí z dat, jež mu poskytujeme, a z pokynů, které mu dáváme.
Dalším aspektem, který stojí za zvážení, je otázka, zda by AI měla být vůbec používána k rekonstrukci historických událostí nebo osobností. Vytváření historicky přesných obrázků pomocí AI může být sice technologicky působivé, ale zároveň se pohybujeme po tenkém ledě, pokud jde o interpretaci a reprezentaci minulosti. Možná bychom měli AI ponechat tvorbě nových, originálních obsahů, kde její kreativní potenciál může být plně využit, místo aby se pokoušela o přesnou rekonstrukci toho, co již bylo.
Zdroje: