[ Zavřít ] 


 

RSS Kanál

 

OpenAI a Anthropic budou sdílet své modely AI ještě před zveřejněním s vládou USA

OpenAI a Anthropic, dva přední vývojáři genAI, oznámili, že budou sdílet své nové modely s americkou vládou pro účely bezpečnostního testování ještě před jejich veřejným uvedením. Dohoda byla uzavřena s US AI Safety Institute (Americkým institutem pro bezpečnost AI) , který je součástí federální agentury NIST (Národního institutu pro standardy a technologie).

 

OpenAI a Anthropic budou sdílet své modely AI ještě před zveřejněním s vládou USA (Zdroj: OpenAI)

Vlády po celém světě tlačí na zavedení opatření, která by umožnila hodnotit rizika spojená s novými výkonnými algoritmy AI. Dohody mezi giganty AI a vládami jsou klíčovým krokem nejen v rámci odpovědného vývoje AI, ale také v rámci národní bezpečnosti. Stejně tak vidí i Elizabeth Kelly, ředitelka US AI Safety InstituteBezpečnost je klíčová pro podporu průlomových technologických inovací. Tyto dohody jsou jen začátek, ale jsou důležitým milníkem v naší práci na odpovědném řízení budoucnosti AI.

OpenAI a Anthropic podepsaly memorandum o porozumění, které umožňuje formální spolupráci s US AI Safety Institute. Tato spolupráce zahrnuje nejen přístup k modelům před jejich veřejným uvedením, ale také společný výzkum zaměřený na hodnocení bezpečnosti modelů a metody pro zmírnění rizik. Jack Clark, spoluzakladatel Anthropic, dodává: Bezpečná a důvěryhodná AI je zásadní pro pozitivní dopad této technologie. Naše spolupráce s US AI Safety Institute využívá jejich široké odborné znalosti k důkladnému testování našich modelů před jejich širokým nasazením.

Strategický ředitel OpenAI Jason Kwon zdůrazňuje význam této spolupráce: Věříme, že institut má klíčovou roli při definování vedoucí pozice USA v odpovědném vývoji umělé inteligence a doufáme, že naše spolupráce nabídne rámec, na kterém může zbytek světa stavět.

Sdílení modelů AI s vládou před jejich zveřejněním je klíčové pro zachování národní bezpečnosti USA. Umožňuje to vládním agenturám provádět důkladné bezpečnostní testy a identifikovat potenciální rizika, která by mohla být zneužita nepřátelskými aktéry. Tímto způsobem mohou být zavedeny potřebné bezpečnostní opatření ještě předtím, než se technologie dostane do rukou široké veřejnosti.

US AI Safety Institute bude také spolupracovat se svými partnery v UK AI Safety Institute, aby poskytl zpětnou vazbu na potenciální zlepšení bezpečnosti modelů. USA a Velká Británie již dříve spolupracovaly na testování bezpečnosti AI modelů. Tato dohoda představuje významný krok směrem k zajištění bezpečnosti a odpovědného vývoje AI, což je klíčové pro budoucí technologické inovace a jejich pozitivní dopad na společnost.

Zdroje

 

 

 

 

 

Autonomní AI způsobila kolaps systému

Je dobrý nápad dát umělé inteligenci taková práva, aby mohla ve vymezeném prostoru operovat zcela samostatně? Odpověď se sama nabízí a nedávný incident ji potvrzuje. AI agent se v systému pustil do operací a aktualizací nad rámec toho, k...

OpenAI představuje projekt Strawberry

OpenAI, přední vývojář AI, nedávno oznámil svůj nejnovější a potenciálně nejvýkonnější projekt s názvem Strawberry. Tento projekt, původně známý jako Q* (Q-Star), byl přejmenován v červenci 2024 a slibuje přinést revoluci v...

Proton skryje VPN pomocí protokolu Stealth

V době, kdy internetová cenzura stále sílí a zdokonaluje se, přichází Proton s protokolem Stealth, který dokáže obejít restrikce a blokování díky sofistikovaným technikám obfuskace a maskování VPN provozu coby běžné...

DuckDuckGo nabídne anonymní přístup k AIs

DuckDuckGo reaguje na AI trend nabídkou AI Chatu, platformy pro komunikaci s různými AI modely při zachování uživatelovy anonymity. Služba skýtá široké spektrum odpovědí od různých AI, ale také zajišťuje bezpečnou a soukromou interakci - čímž...


 
© 2005-2024 PS Media s.r.o. - digital world
 

reklama