Umělá inteligence by mohla představovat riziko ve stejném rozsahu jako jaderná válka, varuje britský premiér

Pokud jste za posledních několik měsíců věnovali nějakou pozornost novinkám, pak jste pravděpodobně slyšeli o nebezpečích, která AI pro lidstvo představuje. Někteří tomu věří AI by mohla svrhnout lidstvo pokud dostane šanci, zatímco jiní věří, že je to jen a hromada prasat. Nyní, během celosvětového summitu o bezpečnosti AI, britský premiér vyzval národní vůdce, aby zintenzivnili svou hru a chránili lidstvo před nebezpečím AI.

Tech. Zábava. Věda. Vaše doručená pošta.

Přihlaste se k odběru nejzajímavějších novinek v oblasti technologií a zábavy.

Přihlášením souhlasím s Podmínky použití a zkontrolovali Oznámení o ochraně osobních údajů.

Předseda vlády Rishi Sunak říká, že riziko, které AI představuje, je ve stejném měřítku jako riziko pandemie nebo jaderné války. Opatrovník zprávy. Sunak říká, že je znepokojen rizikem, které AI představuje pro veřejnost, protože jsou vydávány stále pokročilejší modely AI. Podobná varování jsme viděli od kmotr AI že AI by mohla převzít kontrolu, pokud lidé nebudou opatrní.

Bez ohledu na to, kam v tomto spektru spadáte, světoví lídři spěchají, aby našli nějaký způsob, jak ovládnout volant pokroků AI. A to je místo, kde přichází na řadu tento nový globální summit o bezpečnosti umělé inteligence. Sunak doufá, že právě na tomto summitu přesvědčí vůdce ze Spojených států a dalších zemí, aby na něm spolupracovali zajistit, aby veřejné nástroje umělé inteligence byly bezpečné ještě před jejich vydáním, a tím kontrolovat riziko nebezpečí, které AI pro uživatele představuje svět.

bodový robot
Národní lídři volají po nějakém druhu bezpečnostního systému, který by zajistil, že rizika AI budou pod kontrolou. Zdroj obrázků: Boston Dynamics

Co přesně to obnáší, není jasné. Je však nemožné vyhnout se mnoha problémům, které modely AI jako ChatGPT nabízejí. Nejen, že mají tendenci si věci vymýšlet – něco, co výzkumníci AI nazývají „halucinace“, ale také mají také prokázal výjimečnou použitelnost při překonávání překážek, jako jsou paywally a věci v minulost.

Jistě, OpenAI a další si vyžádaly čas na vyřešení těchto problémů, ale stále existují v té či oné podobě napříč všemi oblastmi. Jak tedy světoví lídři plánují zajistit, aby umělá inteligence byla bezpečná a neplánovala svržení lidstva? To je křivá koule. Významný herní plán zatím nikdo nemá.

Sunak také někdy tento týden promluví po boku Elona Muska o přetrvávajících rizicích a nebezpečích AI, což je zajímavé, když vezmeme v úvahu Muskovy plány na spojení AI a lidstva do jedné entity vyvrtáním děr do našich lebek a instalací mozkových implantátů. Zda ostatní národy budou Sunaka následovat a přijdou s nějakými bezpečnostními opatřeními, je stále nejasné. Ale aspoň se někdo snaží, myslím.

Nenechte si ujít:James Webb zachycuje úchvatný pohled na Krabí mlhovinu

Publikum BGR touží po našich špičkových poznatcích o nejnovějších technologiích a zábavě a také po našich autoritativních a rozsáhlých recenzích.

Naše věrné čtenáře vedeme k některým z nejlepších produktů, nejnovějším trendům a nejpoutavějším příběhům s nepřetržitým pokrytím, které jsou dostupné na všech hlavních zpravodajských platformách.

Čestné zpravodajství, recenze a názory od roku 2006.

- Jonathan S. Geller, zakladatel

Poslední příspěvek na blogu

Floyd Mayweather a Khabib Nurmagomedov chtějí bojovat, protože už nic není svaté
November 01, 2023

Floyd Mayweather, neporažený boxerský velikán, který udělal kariéru tím, že udělal přesně tolik, aby vyhrál rozhodnutí v ringu, se znovu snaží vyle...

IPhone 6s může být pro Android ještě větší noční můrou, než jsme si mysleli
November 01, 2023

Prodeje iPhonů obvykle klesají v měsících, které vedly k velkému uvedení iPhonu, protože více informovaných kupujících zájemci o koupi smartphonu A...

Apple právě získal vyhledávač podcastů, který by mohl změnit způsob vyhledávání podcastů
November 01, 2023

Apple nedávno získal společnost pro vyhledávání podcastů s názvem Pop Up Archive nová zpráva z Niemanova laboratoř. Apple jako obvykle ke zprávě ne...