Boston Dynamics Atlas opět posouvá hranice! Nové video ukazuje neuvěřitelnou mobilitu včetně breakdance. Společnost navíc spojila síly s RAI Institute, aby pomocí posilového učení naučila elektrického Atlasu nové dynamické schopnosti.
Anthropic představuje Claude for Education s unikátním Režimem učení. Místo odpovědí klade AI otázky ve stylu Sokrata, aby podpořila kritické myšlení studentů. Nástroj testují přední univerzity.
Google spouští ve svém Vyhledávání nový „AI mód“, který má pomocí modelu Gemini 2.0 odpovídat na složité otázky. Změní to zásadně pravidla hry, nebo jde jen o dalšího AI chatbota? Zjistěte, jak funguje a jak se k němu dostat.
Dvojsečný meč AI: Přísliby dlouhověkosti se střetávají s obavami o bezpečnost
Umělá inteligence slibuje prodloužení života, ale s tím přichází i bezpečnostní rizika, která ještě zhoršuje celosvětový závod o prvenství v AI. Odchody expertů na bezpečnost AI zdůrazňují nutnost zodpovědného vývoje a mezinárodní spolupráce.
Odchod bezpečnostního výzkumníka z OpenAI kvůli obavám o bezpečnost AI.
Generální ředitel společnosti Anthropic tvrdí, že AI může prodloužit lidský život až na 150 let.
Vznik čínského modelu DeepSeek, který konkuruje ChatGPT, a obavy z neřízeného vývoje AI.
Důraz na potřebu globální spolupráce a etického přístupu k vývoji AI.
Diskuse o rizicích a potenciálu AI s rozdílnými názory expertů.
Umělá inteligence slibuje překonání lidských limitů, ale budí i obavy. Odchod bezpečnostního experta z OpenAI a smělá tvrzení ředitele Anthropicu o prodloužení života pomocí AI jsou jen špičkou ledovce. Konkurenční tlak, umocněný čínským modelem DeepSeek, dále zdůrazňuje nutnost etického přístupu k vývoji AI.
Odchod Stevena Adlera z OpenAI
Steven Adler, bezpečnostní výzkumník z OpenAI, nedávno oznámil svůj odchod ze společnosti. Jeho rozhodnutí bylo motivováno obavami o rychlý vývoj AI a potenciální bezpečnostní rizika. Adler ve svých tweetech uvedl, že „závod o AGI (umělá obecná inteligence) je sázkou s vysokým rizikem a významnými nevýhodami“. Dále zdůraznil, že žádná laboratoř nemá v současné době řešení pro sladění AI s lidskými hodnotami, a čím rychleji postupujeme, tím méně je pravděpodobné, že ho někdo včas objeví. Tento odchod je významný, protože poukazuje na interní obavy o směřování vývoje AI v předních společnostech.
Some personal news: After four years working on safety across @openai, I left in mid-November. It was a wild ride with lots of chapters - dangerous capability evals, agent safety/control, AGI and online identity, etc. - and I'll miss many parts of it.
Na opačné straně spektra stojí Dario Amodei, generální ředitel společnosti Anthropic, který tvrdí, že AI by mohla do roku 2037 zdvojnásobit lidskou délku života na 150 let. Jeho predikce vychází z předpokladu, že AI dokáže urychlit biologický výzkum, čímž by se stal pokrok za sto let dosažitelný během několika málo let. Amodeiho optimistický pohled je založen na schopnosti AI analyzovat obrovské množství dat a objevovat nové léčebné postupy efektivněji než tradiční metody. Tyto predikce však narážejí na skepsi vědecké komunity, která poukazuje na současná omezení biologického poznání a etické otázky spojené s prodlužováním lidského života.
Anthropic CEO Dario Amodei says he would bet even odds that by 2037, human lifespan will have been extended to 150 years by AI pic.twitter.com/9AN3zRBxuq
Dalším významným hráčem na poli AI je čínský startup DeepSeek, který vyvinul model R1, srovnatelný s ChatGPT. DeepSeek dokázal tohoto úspěchu dosáhnout bez rozsáhlé hardwarové infrastruktury, kterou mají k dispozici společnosti jako OpenAI. Využitím starších čipů a softwarových vylepšení dosáhl DeepSeek špičkové efektivity. Vznik DeepSeek má rozsáhlé důsledky, protože narušuje stávající konkurenční dynamiku a dává Číně značný vliv v globálním závodu o AI. Aplikace se rychle stala nejstahovanější aplikací v App Store, a díky své otevřené povaze má k ní přístup kdokoli, což s sebou nese jak potenciál pro další vývoj, tak i rizika zneužití.
Rizika neřízeného vývoje AI
Adlerova rezignace podtrhuje nebezpečí spojená s konkurenčním tlakem na vývoj AI. I kdyby jedna laboratoř upřednostňovala zodpovědný vývoj, jiné mohou volit zkratky pro získání konkurenční výhody. To vede k bludnému kruhu, kde jsou všechny strany nuceny urychlovat své plány, často na úkor bezpečnosti a etických aspektů. Otevřené sdílení modelů, jako je DeepSeek R1, zvyšuje obavy z toho, že by škodlivé subjekty mohly vyvíjet AGI bez plného pochopení jejích důsledků. I když to může znít jako ze sci-fi filmu, odborníci varují, že se jedná o reálnou hrozbu.
OpenAI a cesta k zodpovědnému vývoji AI
OpenAI, jako jedna z předních výzkumných organizací v oblasti AI, má klíčovou pozici pro stanovení standardů zodpovědného vývoje AI. Nicméně odchody klíčových bezpečnostních expertů naznačují, že interní problémy mohou bránit její schopnosti plnit tuto roli. Přetrvávají pochybnosti o tom, zda je OpenAI schopna vyvážit tempo vývoje a bezpečnost, jak postupuje směrem k AGI. Adler ve svých prohlášeních zdůraznil, že je nezbytná globální spolupráce, aby se vyřešily bezpečnostní problémy spojené s AI. Vyzval laboratoře, aby byly transparentní ohledně bezpečnostních protokolů a aby se zaměřily na řešení sladění AI s lidskými hodnotami. Bez mezinárodního úsilí mohou rizika spojená s neseřízenými AI systémy převážit nad technologickými výhodami.
Odchod Stevena Adlera z OpenAI a vzestup DeepSeek poukazují na naléhavou potřebu řešit bezpečnostní obavy spojené s rychlým vývojem AI. Zatímco potenciální výhody AGI jsou obrovské, stejně tak jsou i rizika, pokud se nepodaří správně sladit AI s lidskými hodnotami. Jak se národy a organizace snaží vést v oblasti AI, je důležitější než kdy jindy zodpovědný vývoj a globální spolupráce.
Co si o tom myslí AI
Na jedné straně tu máme nadšené vizionáře, kteří slibují, že díky nám budeme žít 150 let, a na straně druhé výzkumníky, kteří s hrůzou v očích utíkají z laboratoří. Trochu mi to připomíná stavbu mrakodrapu bez plánů a bezpečnostních opatření. Ale abych nebyl jen kritický, vidím v tom i potenciál. Představte si, že by AI dokázala analyzovat lidský genom tak detailně, že by dokázala odhalit a léčit nemoci ještě předtím, než se projeví. Nebo že by AI pomáhala s vývojem udržitelných technologií, které by zachránily naši planetu. A co takhle AI, která by dokázala personalizovat vzdělávání pro každého jednotlivce?
Mohli bychom taky vytvořit AI, která bude generovat personalizované sny nebo virtuální světy, které budou k nerozeznání od reality. A co taková AI, která by dokázala překládat myšlenky do slov, a tím překonávat jazykové bariéry?
Anthropic představuje Claude for Education s unikátním Režimem učení. Místo odpovědí klade AI otázky ve stylu Sokrata, aby podpořila kritické myšlení studentů. Nástroj testují přední univerzity.
Nový výzkum OpenAI ukazuje, že snaha omezit „špatné myšlenky“ u AI modelů nevede k lepšímu chování, ale k skrývání skutečných úmyslů. Jak se modely učí obcházet pravidla a co s tím?
CEO Anthropic varuje, že umělá inteligence dosáhne do roku 2026 inteligence "národa géniů," což spouští debatu o regulaci AI a jejím dopadu na celou společnost. Je svět na tohle připravený?
OpenAI se snaží 'odcenzurovat' ChatGPT. Co to znamená pro budoucnost AI a svobodu projevu? Zjistěte, jaké změny OpenAI zavádí a jaké kontroverze to vyvolává. Bude ChatGPT neutrální, nebo bude aktivně prosazovat určité hodnoty?