
NSA zakládá kyberbezpečnostní centrum specializované na AIAmerická Národní bezpečnostní agentura (NSA) oznámila založení nového bezpečnostního centra zaměřeného výhradně na ochranu systémů umělé inteligence před kybernetickými útoky. Jde o reakci na stále častější implementaci algoritmů AI do klíčových obranných a zpravodajských infrastruktur USA, které je potřeba adekvátně zabezpečit.
Ústředí NSA, Fort Meade, Maryland (Zdroj: Wikipedia.org)
Americká Národní bezpečnostní agentura (NSA) čelí rostoucím obavám z možných bezpečnostních rizik spojených s využíváním umělé inteligence a strojového učení. NSA proto oznámila založení nového centra zaměřeného na bezpečnost AI, které se bude zabývat analýzou těchto rizik. Americká Národní bezpečnostní agentura (NSA) v poslední době čelí rostoucím obavám ohledně možných bezpečnostních rizik spojených s umělou inteligencí. Podle nedávné zprávy agentury NSA začala organizace interně zkoumat bezpečnostní dopady používání AI a strojového učení jak uvnitř NSA, tak v rámci celé americké vlády. Cíle centraMezi hlavní oblasti zájmu nového centra patří metody pro odhalování zranitelností v systémech AI, nástroje pro testování odolnosti modelů strojového učení, techniky pro zajištění správnosti a bezpečnosti algoritmu i za neočekávaných okolností a postupy pro auditování černých skříněk AI systémů. NSA chce rovněž prozkoumat využití AI pro lepší analýzu velkých objemů kybernetických dat. Pokročilé algoritmy by mohly pomoci odhalit vzorce a aktivity naznačující možné útoky. Dalším cílem je posílení schopností v oblasti strojového učení a hlubokých neuronových sítí, které jsou klíčové pro moderní systémy AI. VýzvyPoužití umělé inteligence v oblasti kybernetické bezpečnosti s sebou nese řadu komplikovaných výzev. Modely strojového učení mohou být napadeny speciálně navrženými vstupy, které je matou a způsobují chybné rozhodování a klasifikaci. Útočníci rovněž mohou zneužít přístupu k trénovacím datům a vmanipulovat systém AI tak, aby fungoval v jejich prospěch. Odolnost vůči těmto typům útoků vyžaduje důkladné testování za různých podmínek a vytvoření frameworků pro kontinuální monitoring, audit a aktualizace modelů. Je také třeba zajistit bezpečný přístup k datům a jejich kvalitu. Generál Paul Nakasone, šéf NSA (Zdroj: NSA)
Spolupráce napříč sektoryCentrum bude úzce spolupracovat s americkým průmyslem, národními laboratořemi, akademickou sférou i mezinárodními partnery. NSA chce vytvořit platformu pro výměnu informací o hrozbách v oblasti AI a sdílení osvědčených postupů pro zajištění odolnosti systémů. Budou zřízeny expertní pracovní skupiny, které vypracují doporučení pro standardy a regulace podporující bezpečnost AI v kritických odvětvích. NSA bude usilovat o partnerství s technologickými lídry v oboru, jako jsou Microsoft, IBM, Google či Amazon. Spolupráce s nimi je zásadní pro porozumění trendům a problematice.
Generál Paul M. Nakasone, šéf NSA Budoucnost úspěšné spolupráce v oblasti kybernetické bezpečnosti AI bude záviset na schopnosti vytvořit efektivní partnerství založená na vzájemné důvěře a sdílení informací mezi vládou, akademickou sférou a komerčním sektorem. Jen společný přístup umožní čelit sofistikovaným kybernetickým hrozbám v éře AI. Etické využití umělé inteligenceS rostoucími schopnostmi AI se zvyšují i etické otázky ohledně jejího využití. Jak zajistit, aby systémy AI jednaly v souladu s morálními principy? Jak předcházet nezamýšlené diskriminaci a jiným neetickým dopadům? NSA bude muset pečlivě zvážit, jak implementovat pokročilé technologie AI způsobem, který je legální, etický a veřejně přijatelný. Bude potřeba vytvořit jasné směrnice a dohled nad použitím AI v kritických oblastech národní bezpečnosti. Zdroje
Daniel Beránek, 01.10.2023 23:59 Francouzští vývojáři Mistral, známí svou láskou k open-source, přichází s novým AI modelem Mistral Small 3. S 24 miliardami parametrů je sice menší než konkurenční obři, zato však nabízí rychlost, nízké... Nové AI modely DeepSeek R1 a Qwen2.5-Max představují dva odlišné přístupy k tréninku a provozním nárokům, které by mohly zásadně ovlivnit budoucí vývoj umělé inteligence. Zatímco DeepSeek R1 se profiluje jako model postavený na... Grok, umělý inteligentní asistent od společnosti xAI, udělal další krok na cestě k větší dostupnosti. Coby samostatná aplikace se šíří na další platformy. Co Grok nabídne, kde ho již můžeme vyzkoušet a co teprve přijde?
... Nejhorší je, když najdete filmovou perlu, ale nemáte k ní titulky. A když už je najdete, tak nesedí. A i když ve VLC posunete jejich časování vůči časování zvukové stopy, tak se ty stopy neustále rozcházejí - a to dokonce nikoliv symetricky. To pak... |