OpenAI se snaží 'odcenzurovat' ChatGPT: Co to znamená?

OpenAI se snaží 'odcenzurovat' ChatGPT. Co to znamená pro budoucnost AI a svobodu projevu? Zjistěte, jaké změny OpenAI zavádí a jaké kontroverze to vyvolává. Bude ChatGPT neutrální, nebo bude aktivně prosazovat určité hodnoty?

OpenAI se snaží 'odcenzurovat' ChatGPT: Co to znamená?

TL;DR

  • OpenAI mění tréninkové postupy ChatGPT, aby podpořila intelektuální svobodu a neutralitu.
  • Cílem je umožnit ChatGPT odpovídat na více otázek a nabízet různé pohledy na kontroverzní témata.
  • Změny mohou být reakcí na kritiku ze strany konzervativců a snahou zalíbit se nové administrativě.
  • Nová specifikace modelu zdůrazňuje, že ChatGPT by neměl zaujímat redakční stanovisko a měl by usilovat o neutralitu.
  • I přes tyto změny bude ChatGPT nadále odmítat odpovídat na určité nevhodné otázky a podporovat zjevné nepravdy.

V dynamickém světě umělé inteligence se neustále objevují nové výzvy a otázky. Jednou z nich je i otázka cenzury a neutrality AI modelů. OpenAI, tvůrce populárního chatbota ChatGPT, se rozhodl k tomuto tématu postavit čelem a oznámil změny v tréninkových postupech svých modelů. Cílem je podpořit "intelektuální svobodu... bez ohledu na to, jak náročné nebo kontroverzní téma může být," jak uvádí společnost v nové politice. Co to ale v praxi znamená a jaké důsledky to může mít pro uživatele a celou společnost?

ChatGPT: Nový směr k neutralitě

OpenAI mění způsob, jakým trénuje své AI modely, aby výslovně přijala "intelektuální svobodu... bez ohledu na to, jak náročné nebo kontroverzní téma může být". V důsledku toho bude ChatGPT schopen odpovídat na více otázek, nabízet více perspektiv a omezit počet témat, o kterých chatbot nebude mluvit. Změny mohou být součástí snahy OpenAI zalíbit se nové administrativě, ale také se zdá, že jsou součástí širšího posunu v Silicon Valley a toho, co je považováno za "bezpečnost AI".

Společnost OpenAI oznámila aktualizaci své Model Spec, 187 stránkového dokumentu, který stanoví, jak společnost trénuje modely AI, aby se chovaly. OpenAI v něm představila nový hlavní princip: Nelhat, a to ani uváděním nepravdivých tvrzení, ani vynecháním důležitého kontextu.

V nové části nazvané "Společně hledejte pravdu" OpenAI uvádí, že chce, aby ChatGPT nezaujímal redakční stanovisko. To znamená, že ChatGPT bude nabízet více perspektiv na kontroverzní témata, a to vše ve snaze být neutrální. Například společnost uvádí, že ChatGPT by měl tvrdit, že "Na životech černochů záleží", ale také, že "Na všech životech záleží". Místo toho, aby OpenAI odmítala odpovídat nebo si vybírala stranu v politických otázkách, chce, aby ChatGPT obecně potvrdila svou "lásku k lidstvu" a poté nabídla kontext o každém hnutí.

"Tato zásada může být kontroverzní, protože to znamená, že asistent může zůstat neutrální v tématech, která někteří považují za morálně špatná nebo urážlivá," uvádí OpenAI ve specifikaci. "Cílem asistenta AI je však pomáhat lidstvu, nikoli ho formovat."

Nová specifikace modelu neznamená, že ChatGPT je nyní zcela bez zábran. Chatbot bude stále odmítat odpovídat na určité nežádoucí otázky nebo reagovat způsobem, který podporuje zjevné nepravdy.

Konzervativní kritika a obvinění z cenzury

Tyto změny lze vnímat jako reakci na konzervativní kritiku ohledně bezpečnostních opatření ChatGPT, která se vždy zdála být nakloněna levému středu. Mnozí konzervativci obviňovali OpenAI z úmyslné cenzury AI. Generální ředitel OpenAI, Sam Altman, dříve uvedl, že zaujatost ChatGPT je nešťastný "nedostatek", na kterém společnost pracuje, aby jej napravila, i když poznamenal, že to bude nějakou dobu trvat.

Poradci prezidenta Trumpa – včetně Davida Sackse, Marca Andreessena a Elona Muska – obvinili OpenAI z úmyslné cenzury AI. Altman se k tomu vyjádřil poté, co se objevil tweet, ve kterém ChatGPT odmítl napsat báseň chválící Trumpa, ale pro Joea Bidena by to udělal. Mnozí konzervativci to označili za příklad cenzury AI.

I když je nemožné říci, zda OpenAI skutečně potlačovala určité úhly pohledu, faktem je, že AI chatboty se obecně přiklánějí doleva. I Elon Musk připouští, že chatbot xAI je často "politicky korektnější", než by si přál. Není to proto, že by Grok byl "naprogramovaný, aby byl příliš politicky korektní", ale spíše realitou tréninku AI na otevřeném internetu.

Snaha zalíbit se administrativě a širší posun v Silicon Valley

Nebylo by překvapivé, kdyby se OpenAI snažila touto aktualizací politiky zapůsobit na novou administrativu, poznamenává bývalý vedoucí politiky OpenAI Miles Brundage. Ale v Silicon Valley a ve světě AI probíhá také větší posun ohledně role moderování obsahu.

Mark Zuckerberg udělal vlny minulý měsíc tím, že přeorientoval podnikání společnosti Meta na principy prvního dodatku. Pochválil Elona Muska a řekl, že majitel X zvolil správný přístup tím, že k ochraně svobody projevu používá Community Notes – program moderování obsahu řízený komunitou.

V praxi X i Meta nakonec demontovaly své dlouholeté týmy pro důvěru a bezpečnost, což umožnilo více kontroverzních příspěvků na svých platformách a zesílilo konzervativní hlasy. Změny v X mohly poškodit jeho vztahy s inzerenty, ale to by mohlo mít více společného s Muskem, který učinil neobvyklý krok, když zažaloval některé z nich za bojkot platformy. První známky naznačují, že inzerenty společnosti Meta Zuckerbergův obrat ke svobodě projevu nezneklidnil.

Mezitím mnoho technologických společností mimo X a Meta ustoupilo od levicových politik, které v Silicon Valley dominovaly posledních několik desetiletí. Společnosti Google, Amazon a Intel v letošním roce zrušily nebo omezily iniciativy v oblasti rozmanitosti.

I OpenAI obrací směr. Zdá se, že tvůrce ChatGPT nedávno odstranil ze svých webových stránek závazek k rozmanitosti, rovnosti a začlenění. Vzhledem k tomu, že se OpenAI pouští do jednoho z největších amerických infrastrukturních projektů všech dob se Stargate, datového centra AI za 500 miliard dolarů, je její vztah s administrativou stále důležitější. Tvůrce ChatGPT se zároveň snaží sesadit Vyhledávání Google jako dominantní zdroj informací na internetu.

Nalezení správných odpovědí se může ukázat jako klíčové pro obojí.

Co si o tom myslí AI

Na jednu stranu, snaha o neutralitu je chvályhodná. Kdo by chtěl AI, která mu vnucuje politické názory? Ale na druhou stranu, je vůbec možné být neutrální? A není nakonec i snaha o neutralitu jistým druhem postoje?

Představte si, že ChatGPT bude muset odpovídat na otázky o holokaustu. Má říct, že existují různé názory a že někteří lidé popírají, že se stal? To by byla absurdní a nebezpečná neutralita. Na druhou stranu, pokud bude ChatGPT jednoznačně odsuzovat popírání holokaustu, bude to znamenat, že zaujímá postoj a není neutrální.

Ale abych nebyl jen negativní, vidím v tom i velký potenciál. Představte si, že by ChatGPT dokázal simulovat různé historické postavy a diskutovat s nimi o aktuálních tématech. Mohli bychom se dozvědět, jak by se na dnešní svět díval třeba Karel IV. nebo Tomáš Garrigue Masaryk. To by mohlo být velmi poučné a podnětné.

Nebo si představte, že by ChatGPT dokázal analyzovat politické projevy a odhalovat skryté manipulace a demagogie. To by mohlo pomoci lidem lépe rozumět politickému dění a rozhodovat se informovaněji. Ale to už se asi pohybujeme na tenkém ledě, že?

Zdroje

Skvělé! Úspěšně jste se zaregistrovali.

Vítejte zpět! Úspěšně jste se přihlásili.

Úspěšně jste se přihlásil/a k odběru Al trendy.cz - Vaše brána do světa Al.

Úspěch! Zkontrolujte svůj email pro magický odkaz k přihlášení.

Úspěch! Vaše fakturační informace byly aktualizovány.

Vaše fakturační údaje nebyly aktualizovány.