Hledám lidi hladové po úspěchu. Západ rezignoval, investujeme hlavně na Východě, říká Vojta Roček

Známý investor z Presto Ventures se snaží, aby lidé nebrali působení ve startupu jen jako klasický džob. „Měli by to vnímat jako investici nejen do svého života, ale i do firmy, která jim to jednou obrovským způsobem vrátí,“ říká v rozhovoru.

Známý investor z Presto Ventures se snaží, aby lidé nebrali působení ve startupu jen jako klasický džob. „Měli by to vnímat jako investici nejen do svého života, ale i do firmy, která jim to jednou obrovským způsobem vrátí,“ říká v rozhovoru.

Celý článek
0

Jako vakcíny? EU chce nakupovat strategické suroviny společně. To nebude fungovat, varují těžaři

Bruselský nápad společného nákupu kriticky důležitých surovin pro evropský průmysl nebude fungovat, tvrdí zástupci těžařských firem.

Bruselský nápad společného nákupu kriticky důležitých surovin pro evropský průmysl nebude fungovat, tvrdí zástupci těžařských firem.

Celý článek
0

Sto milionů pro Worldee. Český cestovatelský startup nakopne nový investor, je jím Smička z Bazoše

Radim Smička, šéf Bazoše, posílá olomoucké cestovatelské platformě Worldee tři miliony eur. Další milion přidávají současní investoři Kaiperi Venture Capital. Finanční injekci se startupu podařilo získat i díky nedávnému rozhovoru, který jeho zakladatel Tomáš Zapletal poskytl Hrotu.

Radim Smička, šéf Bazoše, posílá olomoucké cestovatelské platformě Worldee tři miliony eur. Další milion přidávají současní investoři Kaiperi Venture Capital. Finanční injekci se startupu podařilo získat i díky nedávnému rozhovoru, který jeho zakladatel Tomáš Zapletal poskytl Hrotu.

Celý článek
0

OSN vytáhla proti umělé inteligenci. Chce zákaz autonomních zbraní ve válkách

Pokud samočinný dron omylem zabije civilisty, kdo za to bude odpovědný? Moderní konflikty přinášejí otázky, na které etika teprve hledá odpověď. Proti robotům-vojákům vznikla i rozsáhlá petice.

OSN vytáhla proti umělé inteligenci. Chce zákaz autonomních zbraní ve válkách
Samočinné drony jsou podle OSN hrozbou | Shutterstock.com

Vývoj autonomních zbraňových systémů včetně dronů, založených na algoritmech umělé inteligence, je v současné době až překotný. Tyto zbraně se již v určité míře objevují ve skutečných konfliktech, které probíhají na různých místech světa. Na půdě OSN se proto začínají řešit etické otázky spojené s válečným zabíjením „rukou AI“.

Jedním z lidí, kteří před touto oblastí technologického vývoje dlouhodobě varují a propagují zákaz autonomních zbraní, je průkopník umělé inteligence a profesor informatiky na univerzitě v Berkeley, Stuart Russell. V článku v časopise Nature poukazuje na zrychlující se vývoj vedoucí ke stále chytřejším zbraním. A obává se toho, že intenzivní zbrojení, související s neklidnou světovou situací, může vést až ke standardizaci robotů, přinášejících na bitevním poli smrt.  

Podle švédského populárně vědeckého časopisu Forskning & Framsteg (F&F), který se ve svém únorovém čísle tématu detailně věnuje, však není Stuart Russell ve svých obavách sám. Například organizace Human Rights Watch už dlouho usiluje o zákaz takových zbraní.

Kampaň „Stop zabijáckým robotům“ podporuje více než 180 mezinárodních i národních nevládních organizací. Zároveň už téměř pět tisíc vědců z oblasti vývoje umělé inteligence podepsalo otevřený dopis organizace Future of Life, požadující zákaz „útočných autonomních zbraní mimo smysluplnou lidskou kontrolu“. 

A není náhodou, že v Ženevě už zhruba deset let probíhají diskuze o nutnosti doplnění mezinárodního práva o smrtící autonomní zbraňové systémy. „V rámci Úmluvy o zbraních z roku 1980 se k této problematice pravidelně schází skupina odborníků. Práce je ale pomalá, protože Rusko, Spojené státy i některé další země regulace odmítají. A vzhledem k tomu, že konečné rozhodnutí vyžaduje absolutní konsenzus, nejsou zatím na stole žádné konkrétní návrhy,“ píše Forskning & Framsteg.

Důležitým mezníkem v možné regulaci autonomních zbraňových systémů se tak stal začátek listopadu 2023, kdy Valné shromáždění OSN v New Yorku poprvé odhlasovalo rezoluci týkající se autonomních zbraní a šéf OSN António Guterres vyzval země světa, aby se do roku 2026 dohodly na zákazu jejich užívání.

Dron turecké výroby Bayraktar v ukrajinském letectvu
foto Shutterstock.com

Co to tedy v překladu znamená? „Tato rezoluce v podstatě ukazuje, že některé země už začínají být netrpělivé a ztrácejí víru v to, že diskuze v Ženevě opravdu někam povedou,“ vysvětlil pro F&F Vincent Boulanin, vedoucí skupiny zabývající se regulací umělé inteligence ze stockholmského výzkumného institutu SIPRI.  

Boulanin se ve svém výzkumu mimo jiné věnuje i otázce, jak lze současné mezinárodní právo aplikovat na smrtící autonomní zbraňové systémy, což je označení používané právě například OSN. Podle něj v současné době neexistuje žádné právní vakuum.

„Válečné zákony platí pro všechny typy zbraní, včetně autonomních zbraňových systémů. Problém je v tom, že současný zákon lze vykládat různě. Některé země jsou možná mnohem liberálnější než jiné. A tam, kde panuje nejednoznačnost, má cenu se dohodnout na nových pravidlech nebo principech.“

Kamenem úrazu je podle něj ale definice toho, co je vlastně míněno oněmi smrtícími autonomními systémy. Často používaná definice je, že jde o zbraně, které po aktivaci dokážou identifikovat a vybrat cíle a zároveň na zaútočit bez lidského zásahu. Existují však rozdílné názory na to, jak velký lidský zásah je zapotřebí k tomu, aby zbraň nebyla považována za autonomní.  

„Další problém se týká odpovědnosti. Pokud je stroj naprogramován tak, aby zabíjel protivníky, ale náhodně by zabil civilisty, kdo bude hnán k odpovědnosti?“ ptá se. A dodává, že stroje samy o sobě odpovědnost nést nemohou.

„Odpovědné budou nakonec státy, které takové systémy používají. Často říkáme, že stroje rozhodují, ale to je v podstatě jen antropomorfní způsob, jak popsat, co stroj dělá. Stroje zatím nedělají vlastní rozhodnutí, ale vybírají z předem naprogramovaných možností.“ 

Dalším odborníkem, který se v článku F&F k tématu vyjádřil, je Peter Bovet Emanuel, podplukovník, který na norské Akademii obrany zkoumá, jak AI ovlivní budoucnost válčení.

„Umělá inteligence změní způsob, jakým vedeme válku. Momentálně už se používá například k interpretaci satelitních snímků, postupně budou systémy AI využívány i pro pokročilejší úkoly. Například může působit jako poradkyně ve vojenských štábech na všech úrovních řízení, pomáhat při plánování logistiky a simulacích různých scénářů.“

Jeho slova potvrzuje i zpráva SIPRI z roku 2017, která je sice staršího data, uvádí však zhruba padesátku příkladů systémů, které dokážou autonomně sledovat, detekovat a v některých případech útočit na cíle. Jde především o obranné systémy, které musí chránit lodě, tanky nebo vojenská zařízení proti robotům a raketám ze vzduchu.  

Existují ale i příklady útočnějších zbraní v podobě takzvaných „kamikaze dronů“, které dokážou dlouho kroužit ve vzduchu a vyhledávat cíle, na které pak zaútočí, přičemž se samy útokem zničí. A například na Ukrajině se nyní používají amatérské i profesionální bezpilotní letouny i drony. Ty jsou sice ovládané na dálku člověkem, ale kvůli rušení se obě strany snaží přijít na „chytřejší“ navigaci.  

Peter Bovet Emanuel věří, že vojenské systémy se budou postupně vyvíjet směrem k větší autonomii a že vývoj bude těžké zastavit. „Státy si prostě nemohou dovolit riskovat, že nezvládnou zareagovat na nečekaný útok. Proto se vyvíjejí stále autonomnější obranné systémy. Jenomže pak už není příliš složité učinit další krok, totiž používat je i pro útok,“ uvedl s tím, že v tento moment je důležité vést širokou diskuzi o tom, co je ještě eticky obhajitelné, a případně regulovat spíše možné způsoby používání technologií než jejich samotný vývoj.  

Což nás vrací zpět na začátek, tedy k diskuzím jak v Ženevě, tak na půdě OSN.