Root NationČlánkyAnalyticsŠest přikázání umělé inteligence

Šest přikázání umělé inteligence

-

Následující roky budou ve znamení prudkého rozvoje technologií umělé inteligence. Možná je nutné zavést jasně definované rámce pro tvorbu a používání AI? Stačí 6 měsíců zkušeností k regulaci technologie, která ještě ani neopustila laboratoř? Tato otázka stále častěji zaznívá z úst odborníků a novinářů, pokud jde o umělou inteligenci. Stále častěji se ozývají hlasy a výzvy k přijetí opatření k regulaci umělé inteligence – jak na uživatelské úrovni, tak na úrovni vývoje projektu. Historie takových apelů začala poměrně dávno.

Všudypřítomná přítomnost umělé inteligence v digitálním prostoru a především modelů schopných vytvářet obsah, který se nebude lišit od toho vytvořeného lidmi, vyvolává velmi odlišné emoce. Na jedné straně tu máme skupinu nadšenců, kteří v AI vidí budoucnost a i přes její relativně omezené možnosti (protože AI nepřemýšlí a často si jen bere informace z internetu) se jí nebojí pověřit mnoha úkoly . Na druhé straně barikády je skupina, která vyjadřuje svou skepsi a obavy ze současných trendů ve vývoji umělé inteligence.

Postulát AI

Mostem mezi oběma skupinami jsou výzkumníci umělé inteligence, kteří na jedné straně uvádějí četné příklady toho, jak umělá inteligence pozitivně ovlivnila okolní realitu. Zároveň chápou, že je příliš brzy usnout na vavřínech a obrovský technologický skok přináší mnoho výzev a velkou zodpovědnost. Jasným příkladem tohoto postoje je mezinárodní skupina výzkumníků umělé inteligence a strojového učení vedená doktorem Ozlem Garibayem z University of Central Florida. 47stránková publikace, kterou napsalo 26 vědců z celého světa, identifikuje a popisuje šest výzev, které musí výzkumné instituce, společnosti a korporace řešit, aby byly jejich modely (a software, který je používá) bezpečné.

Ano, jde o seriózní vědeckou práci s důležitými vysvětleními pro pochopení budoucnosti umělé inteligence. Kdo má zájem, může samostatně přečtěte si tuto vědeckou zprávu a vyvodit vlastní závěry. Jednoduše řečeno, vědci identifikovali 6 přikázání umělé inteligence. Veškerý vývoj a akce umělé inteligence jim musí odpovídat, aby byly bezpečné pro lidi i pro svět.

Postulát AI

Ve svém článku, napsaném právě na základě této vědecké práce, se pokusím formulovat hlavní postuláty, zákony, podle kterých by umělá inteligence měla existovat a vyvíjet se. Ano, to je můj téměř volný výklad závěrů vědců ohledně vývoje umělé inteligence a pokus o jejich podání v takříkajíc biblické verzi. Ale takhle jsem vám chtěl představit tuto vědeckou práci uznávaných vědců.

Zajímavé také: Budova AI: Kdo vede závod?

První zákon: Lidské blaho

Prvním postulátem výzkumníků je zaměřit práci umělé inteligence na lidské blaho. Kvůli nedostatku „lidských hodnot, zdravého rozumu a etiky“ může umělá inteligence jednat způsobem, který povede k výraznému zhoršení lidského blahobytu. Problémy mohou být důsledkem nadlidských schopností umělé inteligence (například toho, jak snadno umělá inteligence porazí lidi – a to nejen v šachu), ale také toho, že umělá inteligence nemyslí sama za sebe, a proto není schopna „odfiltrovat“ předsudky resp. zjevné chyby.

Postulát AI

- Reklama -

Vědci poznamenávají, že přílišná důvěra v technologie umělé inteligence může negativně ovlivnit pohodu lidí. Společnost, která málo rozumí tomu, jak vlastně algoritmy umělé inteligence fungují, jim má tendenci přehnaně důvěřovat, nebo naopak zaujímá negativní postoj k obsahu generovanému určitým modelem, zejména chatboty. Vzhledem k těmto a dalším faktorům Garibayův tým vyzývá k tomu, aby se do centra budoucích interakcí AI a člověka dostalo lidské blaho.

Přečtěte si také: ChatGPT: jednoduchá uživatelská příručka

Druhý zákon: Odpovědnost

Odpovědnost je termín, který se ve světě umělé inteligence neustále objevuje v kontextu toho, k čemu používáme strojové učení a jak přesně jsou modely a algoritmy umělé inteligence vyvíjeny a trénovány. Mezinárodní tým zdůrazňuje, že návrh, vývoj a implementace umělé inteligence by měly být prováděny výhradně s dobrými úmysly.

Postulát AI

Podle jejich názoru by měla být odpovědnost zvažována nejen v technickém, ale také v právním a etickém kontextu. Technologii je třeba posuzovat nejen z hlediska její účinnosti, ale také v kontextu jejího použití.

"Se zaváděním pokročilých technik strojového učení je stále důležitější pochopit, jak bylo učiněno rozhodnutí a kdo je za něj zodpovědný“ - píší výzkumníci.

Třetí zákon: Důvěrnost

Soukromí je téma, které je bumerangem v každém diskursu o technologiích. Zvlášť, když se vše probírá na sociálních sítích. To je však pro umělou inteligenci nesmírně důležité, protože bez databáze neexistuje. A co jsou databáze?

Vědci je popisují jako „abstrakce základních stavebních kamenů, které tvoří způsob, jakým vidíme svět“. Tyto bloky jsou obvykle světské hodnoty: barvy, tvary, textury, vzdálenosti, čas. Zatímco úzká AI zaměřená na jediný cíl, jako je míra otevření závěrky při dané intenzitě světla, využívá veřejně dostupná objektivní data, AI v širších aplikacích (zde například modely převodu textu na obrázek jako Midjourney , nebo jazykové modely, jako je ChatGPT ), mohou používat data o lidech a vytvořená lidmi. Je třeba zmínit i články v tisku, knihy, ilustrace a fotografie publikované na internetu. Algoritmy umělé inteligence mají přístup ke všemu, protože jsme jim to sami dali. Jinak se nic nedozví a na žádnou otázku neodpoví.

Postulát AI

Uživatelská data zásadně ovlivňují jak osoby, o kterých jsou tato data shromažďována, tak osoby v systému, kde budou implementovány algoritmy umělé inteligence.

Třetí výzva se proto týká širokého chápání soukromí a poskytování takových práv, jako je právo zůstat sám, právo omezit přístup k sobě samému, právo na utajení svého osobního života nebo podnikání, právo kontrolovat osobní informace, tedy právo na ochranu osobnosti, individuality a důstojnosti. To vše musí být zapsáno do algoritmů, jinak soukromí prostě nebude existovat a algoritmy umělé inteligence mohou být použity v podvodných schématech i při trestných činech.

Přečtěte si také: 7 nejlepších způsobů, jak používat ChatGPT

Čtvrtý zákon: Struktura projektu

Umělá inteligence může být extrémně jednoduchá a jednoúčelová, ale v případě větších modelů s širokým a multitaskingovým charakterem je problémem nejen soukromí dat, ale i struktura designu.

Například GPT-4, nejnovější model umělé inteligence OpenAI, navzdory své velikosti a dopadu na svět AI (a mimo něj), nemá plně veřejnou dokumentaci. To znamená, že nerozumíme tomu, jaké jsou konečné cíle pro vývojáře, čeho chtějí dosáhnout v konečném výsledku. Proto nemůžeme plně posoudit rizika spojená s používáním tohoto modelu AI. GPT-3 oproti tomu vycvičený na datech z fóra 4chan je model, se kterým rozhodně nechcete interagovat. Fórum 4chan je jedním z nejzajímavějších fenoménů na internetu. Toto je příklad absolutní, totální anarchie, která v praxi není omezena žádným rámcem. Zde vznikly hackerské skupiny jako Anonymous nebo LulzSec. Je zdrojem mnoha nejoblíbenějších memů, místem, kde lze diskutovat o kontroverzních tématech a publikovat ještě kontroverznější názory. Ačkoli anglicky psaný obrazový panel uvádí, že „zatím je to legální“, je to poněkud sporné, vzhledem k tomu, že 4chan příležitostně spolupracuje s médii, včetně rasistického, nacistického a sexistického obsahu.

Postulát AI

- Reklama -

Tým profesora Garibaye chce, aby každý model umělé inteligence fungoval v jasně definovaném rámci. Nejen kvůli pohodě osoby, se kterou AI interaguje, ale také kvůli schopnosti posoudit rizika spojená s používáním modelu. Struktura každého projektu by měla zahrnovat respekt k potřebám, hodnotám a přáním různých kulturních skupin a zainteresovaných stran. Proces vytváření, školení a dolaďování umělé inteligence by měl být zaměřen na lidskou pohodu a konečný produkt – model umělé inteligence – by měl být zaměřen na zvyšování a zlepšování produktivity samotné lidské komunity. Modely, kde nelze identifikovat rizika, by měly mít omezený nebo kontrolovaný přístup. Neměly by být hrozbou pro lidstvo, ale naopak přispívat k rozvoji člověka a společnosti jako celku.

Přečtěte si také: Twitter v rukou Elona Muska – hrozba nebo „vylepšení“?

Pátý zákon: Správa a nezávislý dohled

Algoritmy umělé inteligence doslova změnily svět během jediného roku. Premiéry Bard by Google a Bing Microsoft výrazně ovlivnila akcie obou gigantů na burze. Ty mimochodem přispěly k růstu akcií těchto společností i na pozadí akcií Apple. ChatGPT začali studenti školy aktivně používat, komunikují s ním, zkoumají ho a kladou otázky. Nejdůležitější je, aby měl schopnost se samoučit, opravovat své chyby. Umělá inteligence dokonce začíná fungovat ve vládách některých zemí. To je případ předsedy vlády Rumunska Nicolae Chucy najal virtuálního asistenta, který ho bude informovat o potřebách společnosti. To znamená, že umělá inteligence hraje v našich životech stále důležitější roli.

AI

Vzhledem ke stále rostoucí vzájemné závislosti mezi umělou inteligencí, člověkem a životním prostředím považují vědci za nutné vytvořit řídící orgány a nezávislý dohled nad jejím vývojem. Tyto orgány budou řídit celý životní cyklus umělé inteligence: od nápadu až po vývoj a implementaci. Úřady náležitě definují různé modely umělé inteligence a zváží případy související s umělou inteligencí a subjekty společenského života. Čili umělá inteligence se může stát předmětem soudních sporů, ale i žalob. I když samozřejmě ne on osobně, ale jeho vývojáři.

Přečtěte si také: Vše o Neuralink: Počátek kyberpunkového šílenství?

Šestý zákon: Interakce člověka a umělé inteligence

V programech umělé inteligence si každý může najít něco pro sebe: generovat text, detekovat obsah v obrázcích, odpovídat na otázky, generovat obrázky, rozpoznávat lidi na fotkách, analyzovat data. Tato vícenásobná použití se netýkají pouze lidí, kteří se snaží přizpůsobit umělou inteligenci právním a etickým standardům. Mnozí se obávají, že budou modely umělé inteligence vytlačeny z trhu práce. Protože algoritmy umělé inteligence budou schopny totéž udělat rychleji, levněji a možná dokonce lépe než člověk. Zároveň existují lidé, kteří ve své práci spoléhají na AI, tedy umělá inteligence je pro ně již dnes nepostradatelným pomocníkem.

AI

Ale ze studií, na které se vědci odvolávají, je zřejmé, že nahrazení lidí levnou umělou prací je ještě dost daleko. Navzdory tomu již nyní trvají na nutnosti zavést přísnou hierarchii interakce mezi lidmi a umělou inteligencí. Podle jejich názoru by lidé měli být postaveni nad umělou inteligenci. Umělá inteligence musí být vytvářena s ohledem na kognitivní schopnosti člověka s přihlédnutím k jeho emocím, sociálním interakcím, představám, plánování a interakci s předměty. To znamená, že ve všech situacích je to člověk, který musí stát nad umělou inteligencí, ovládat chování a obsah vytvořený modelem a nést za něj odpovědnost. Jednoduše řečeno, i ta nejpokročilejší AI musí poslouchat člověka a nepřekračovat to, co je povoleno, aby nepoškodila svého tvůrce.

Přečtěte si také: Jak Ukrajina používá a přizpůsobuje Starlink během války

Višnovki

Ano, někdo řekne, že vědci ve své zprávě nic důležitého a nového nenaznačili. Všichni o tom mluví už dlouho. Ale už teď je potřeba dát AI do nějakého rámce zákonů. Sáhnout na GPT-4 je jako sáhnout po noži naslepo. Skrývají před námi klíčové informace. Veškerý vývoj v oblasti umělé inteligence a zejména projekt ChatGPT od Open AI mi často připomíná výchovu malého dítěte. Někdy se zdá, že se jedná o dítě mimozemského původu. Ano, mimozemšťan, ale pořád je to dítě, které se učí, dělá chyby, někdy se chová nevhodně, je vznětlivé, hádá se s rodiči. I když roste a vyvíjí se velmi rychle.

AI

Lidstvo nemusí držet krok se svým vývojem a věci se mohou vymknout kontrole. Lidstvo už proto potřebuje pochopit, proč to všechno rozvíjíme, znát konečné cíle, být „zodpovědnými rodiči“, protože jinak může „dítě“ své „rodiče“ jednoduše zničit.

Přečtěte si také: 

Yuri Svitlyk
Yuri Svitlyk
Syn Karpat, neuznaný génius matematiky, "právník"Microsoft, praktický altruista, levá-pravá
- Reklama -
Přihlásit se
Upozornit na
host

0 Komentáře
Vložené recenze
Zobrazit všechny komentáře