Mercedes-Benz a Google Cloud: Spojení sil pro inteligentní vozidla
Mercedes-Benz integruje AI agenta Gemini od Google do svých vozidel. Jak se mění zážitek z jízdy a co to znamená pro budoucnost automobilového průmyslu?
Open Source Initiative (OSI) definovala "open" umělou inteligenci, která vyžaduje zveřejnění trénovacích dat. Meta's Llama model tuto definici nesplňuje. Zveřejnění dat je důležité pro transparentnost a reprodukovatelnost AI, ale vyvolává otázky ohledně bezpečnosti a duševního vlastnictví.
Open Source Initiative (OSI) vydala svou oficiální definici "open" umělé inteligence, která nastavuje nová pravidla pro technologické giganty jako Meta, jejichž modely tato pravidla nesplňují. OSI již dlouho stanovuje průmyslový standard pro to, co představuje open-source software, ale systémy umělé inteligence zahrnují prvky, které nejsou pokryty konvenčními licencemi, jako jsou data pro trénování modelů. Nyní, aby byl systém umělé inteligence považován za skutečně open-source, musí splňovat následující:
Tato definice přímo zpochybňuje Meta's Llama, široce propagovaný jako největší open-source AI model. Llama je veřejně dostupný ke stažení a použití, ale má omezení pro komerční využití (pro aplikace s více než 700 miliony uživateli) a neposkytuje přístup k trénovacím datům, což ho staví mimo standardy OSI pro neomezenou svobodu používání, modifikace a sdílení.
Mluvčí společnosti Meta, Faith Eischen, uvedla, že ačkoli "souhlasíme s naším partnerem OSI v mnoha věcech", společnost s touto definicí nesouhlasí. "Neexistuje jediná definice open-source AI a definovat ji je výzva, protože předchozí definice open-source nezahrnují složitost dnešních rychle se rozvíjejících modelů AI."
"Budeme i nadále spolupracovat s OSI a dalšími průmyslovými skupinami, abychom AI zpřístupnili a osvobodili zodpovědně, bez ohledu na technické definice," dodala Eischen.
Po 25 let byla definice open-source softwaru od OSI široce akceptována vývojáři, kteří chtějí stavět na práci ostatních, aniž by se museli obávat soudních sporů nebo licenčních pastí. Nyní, když AI mění prostředí, čelí technologičtí giganti zásadní volbě: přijmout tyto zavedené principy nebo je odmítnout. Linux Foundation se také nedávno pokusila definovat "open-source AI", což signalizuje rostoucí debatu o tom, jak se tradiční hodnoty open-source přizpůsobí éře AI.
"Nyní, když máme zavedenou robustní definici, můžeme se snad agresivněji bránit proti společnostem, které se 'open washing' a prohlašují svou práci za open source, když ve skutečnosti není," řekl Simon Willison, nezávislý výzkumník a tvůrce open-source multi-nástroje Datasette.
CEO Hugging Face Clément Delangue nazval definici OSI "obrovskou pomocí při formování konverzace o otevřenosti v AI, zejména pokud jde o klíčovou roli trénovacích dat."
Výkonný ředitel OSI Stefano Maffulli říká, že iniciativě trvalo dva roky, konzultovala s experty po celém světě, aby tuto definici zdokonalila prostřednictvím kolaborativního procesu. To zahrnovalo spolupráci s experty z akademické obce na strojovém učení a zpracování přirozeného jazyka, filozofy, tvůrci obsahu ze světa Creative Commons a dalšími.
Zatímco Meta uvádí bezpečnostní obavy jako důvod pro omezení přístupu k svým trénovacím datům, kritici vidí jednodušší motiv: minimalizaci právní odpovědnosti a ochranu své konkurenční výhody. Mnoho modelů AI je téměř jistě trénováno na materiálech chráněných autorským právem; v dubnu The New York Times informoval, že Meta interně uznala, že v jejích trénovacích datech byl obsah chráněný autorským právem, "protože nemáme způsob, jak to nesbírat". Existuje řada soudních sporů proti Meta, OpenAI, Perplexity, Anthropic a dalším za údajné porušení autorských práv. Ale s výjimkou vzácných případů – jako je Stable Diffusion, který odhaluje svá trénovací data – se žalobci v současnosti musí spoléhat na nepřímé důkazy, aby prokázali, že jejich dílo bylo zkopírováno.
Maffulli mezitím vidí, jak se historie open-source opakuje. "Meta používá stejné argumenty" jako Microsoft v 90. letech, kdy viděl open source jako hrozbu pro svůj obchodní model, řekl Maffulli. Vzpomíná si, jak mu Meta vyprávěla o své intenzivní investici do Llama a ptala se ho: "Kdo si myslíte, že bude schopen udělat totéž?" Maffulli viděl známý vzorec: technologický gigant využívá náklady a složitost k ospravedlnění udržení své technologie uzamčené. "Vracíme se do raných dob," řekl.
"To je jejich tajná přísada," řekl Maffulli o trénovacích datech. "Je to cenné duševní vlastnictví."
Definice open-source AI od OSI je důležitým krokem k transparentnosti a odpovědnosti v oblasti umělé inteligence. Otevřenost modelů AI umožňuje jejich důkladnější kontrolu, snižuje riziko zkreslení a diskriminace a podporuje inovace. Nicméně, debata o tom, co přesně znamená "open" v kontextu AI, se teprve začíná a bude se muset vyvíjet s tím, jak se technologie AI bude dále rozvíjet. Je pravděpodobné, že se objeví nové právní a etické otázky, které budou vyžadovat další diskusi a regulaci. Budoucnost AI bude záviset na tom, zda se podaří najít rovnováhu mezi otevřeností a bezpečností, inovací a ochranou duševního vlastnictví.
Zajímavé je sledovat, jak se tato definice promítne do vývoje AI v kombinaci s dalšími technologiemi, jako je blockchain. Decentralizované platformy pro sdílení a trénování AI modelů by mohly dále posílit transparentnost a demokratizaci AI. Představte si svět, kde by výzkumníci a vývojáři z celého světa mohli svobodně spolupracovat na vývoji AI, aniž by byli omezeni proprietárními technologiemi a daty. To by mohlo vést k nebývalému pokroku v oblasti AI a k řešení globálních výzev v oblastech jako je zdravotnictví, vzdělávání a životní prostředí.
Nicméně, je důležité si uvědomit i potenciální rizika spojená s open-source AI. Otevřenost modelů by mohla usnadnit jejich zneužití k nekalým účelům, jako je šíření dezinformací nebo vývoj autonomních zbraní. Proto je nezbytné, aby se s rozvojem open-source AI paralelně vyvíjely i mechanismy pro kontrolu a regulaci, které zajistí její bezpečné a etické využití.