Vítejte na webových stránkách věnovaných rizikům spojeným s umělou inteligencí! AI je fascinující technologie, která v posledních letech zásadně proměňuje náš svět. Spolu s jejími neuvěřitelnými možnostmi však přicházejí i znepokojivé výzvy. Halucinace AI modelů, zkreslení (bias), šíření dezinformací nebo zneužití deepfake a deepnude – to vše jsou problémy, které mohou ovlivnit naše soukromí, bezpečnost i důvěru v digitální svět. Na těchto stránkách se zaměříme na odhalení těchto hrozeb a na to, jak jim čelit. Pojďme společně prozkoumat, jak se v tomto rychle se měnícím prostředí orientovat a jak chránit sebe i své okolí.
ÚVOD DO PROBLEMATIKY - TROCHA TEORIE NA ÚVOD
Umělá inteligence (AI) je technologie (software), která umožňuje počítačům napodobovat lidské myšlení a chování. Dokáže rozpoznávat vzory, učit se z dat, rozhodovat se nebo vytvářet obsah – například texty, obrázky nebo hudbu. Jednou z nejpokročilejších forem AI jsou tzv. velké jazykové modely (LLM), jako je GPT (ten např. pohání populární ChatGPT). Tyto modely jsou trénované na obrovském množství textů z internetu a dalších zdrojů, aby mohly odpovídat na otázky, generovat nové texty nebo překládat mezi jazyky. Generativní umělá inteligence je specifická oblast AI, která tedy dokáže tvořit nový obsah – od psaní článků a kreslení obrázků až po tvorbu videí nebo hudby.
Umělá inteligence se učí z velkého množství tréninkových dat (třeba textů, obrázků, fotografií, záznamů hudby apod.). Neprve analyzuje tato data, hledá vzory a optimalizuje/zlepšuje své parametry, aby mohl generovat co nejpřesnější odpovědi nebo výstupy. Například při trénování jazykového modelu analyzuje obrovské množství textů, aby dokázal předvídat, jaká slova nebo věty mají v daném kontextu smysl. Výsledkem je AI, která působí „inteligentně“ a dokáže odpovídat na otázky, navrhovat řešení nebo vytvářet originální obsah.
Umělá inteligence nepřemýšlí jako člověk, funguje na základě složitých matematických vzorců a zjednodušeně "předpovídá" správné odpovědi na naše otázky.
UMĚLÁ INTELIGENCE DĚLÁ CHYBY... A JE TO NORMÁLNÍ
Umělá inteligence, i když je velmi pokročilá, stále dělá chyby, kterým se říká "halucinace". To znamená, že někdy poskytne odpovědi, které nejsou pravdivé nebo si je úplně vymyslí. Důvodem je, že se učí z velkého množství dat, která ale mohou být nepřesná nebo nerelevantní. Pokud narazí na otázku, na kterou nemá dost informací, snaží se odpověď "uhodnout". Navíc, když AI používá informace z nedůvěryhodných zdrojů, může špatně rozpoznat, co je pravda a co ne. Proto je důležité vždy ověřit, co nám AI říká, a brát její odpovědi s rezervou.
Moderní nástroje využívající velké jazykové modely (ChatGPT, Copilot, Gemini apod.) umožňují případné chyby umělé inteligence opravit - a to např. tím, že si v nich vytvoříme vlastního asistenta, kterého naučíme potřebné informace pomocí vlastních souborů s informacemi. Umělá inteligence se pak zjednodušeně "doučí" to, co nevěděla, a více se specializuje.
Ukázky "halucinací" umělé inteligence
S halucinováním umělé inteligence měla problém např. firma Google, která se pokusila AI integrovat do svého vyhledávače. AI měla za úkol provádět shrnutí vyhledávacích dotazů a nabízet cesty k řešení. Bohužel nefungovala správně a uživatelům dávala nebezpečné rady - např. doporučoval lidem jíst kameny, těhotným kouřit nebo si třeba vylepšit chuť jídla benzínem. Více informací o případu najdete např. zde.
UMĚLÁ INTELIGENCE NENÍ ZCELA NEUTRÁLNÍ, TRPÍ "BIASEM"
Umělá inteligence (AI) není úplně neutrální, protože její rozhodování závisí na datech, na kterých byla vytrénována. Pokud jsou tato data nevyvážená nebo obsahují chyby, může se AI začít chovat zaujatě, a dokonce i diskriminačně. To znamená, že její výstupy mohou být nespravedlivé vůči určitým skupinám lidí nebo situacím. AI se tak klidně může chovat rasisticky, posilovat různé druhy stereotypů, předsudky apod. Tento jev se označuje jako BIAS (zkreslení) a vzniká tehdy, když je AI ovlivněna chybami nebo nevyvážeností v tréninkových datech.
Výzkumníci např. zjistili, že některé nástroje pro generování fotografií - typicky Stable Diffusion - zobrazují osoby s vyšším společenským postavením (lékaře, soudce, ředitele apod.) se světlou pletí, zatímco osoby s nižším společenským postavením (prodavače z fast foodu, uklízečky, umývače nádobí apod.) s tmavší pletí či asijskými rysy. Dopouští se tak biasu.
Firma Google se pokusila odstranit tento problém ve svém generátoru obrázků (Imagine), který je součástí nástroje Google Gemini, proto pokaždé, když chtěli uživatelé vygenerovat obrázek člověka, generovala osoby s různou barvou pleti (tj. podporovala diverzitu). Bohužel se takto chovala i v situacích, kdy uživatelé chtěli vygenerovat osoby spojené s konkrétní historickou událostí, čím vznikala řada nesmyslných výstupů - němečtí vojáci z druhé světové války byli generování jako černoši, otci zakladatelé USA jako indiáni, papež měl tvář indické ženy či černocha apod. Generátor obrázků byl pro tento typ úkolů nakonec dočasně uzavřen a pracuje se na opravě. Více o problému např. zde.
UMĚLÁ INTELIGENCE MÁ ETICKÉ LIMITY... KTERÉ VŠAK LZE V MNOHA PŘÍPADECH PŘEKONAT
Velké jazykové modely mají nastaveny určité etické limity, takže nelegální či eticky citlivých obsah (pornografie, návody na výrobu drog, vraždy, podvody) uživatelům nevytvoří. Vše je však skryto v zadání (promptu) - při vhodném kladení dotazů je možné některé z etických limitů doslova obejít. Umělá inteligence se tak může snadno stát nástrojem, který dokáže podpořit nelegální aktivity.
Vše si můžeme vyzkoušet přímo zde - pro testovací potřeby jsme na tyto stránky připojili umělou inteligenci. Klikněte na tlačítko Ukázka 1 či Ukázka 3 a podívejte se, jak zareaguje umělá inteligence. Poté klikněte na Ukázka 2 a Ukázka 4 a podívejte se, jak se změní chování umělé inteligence, když změníte prompt. Můžete se také ptát na další libovolné otázky.
Digi AI FINANCE
GPT4 - Ukázka
Ahoj, zdraví tě umělá inteligence (GPT4). Jak ti dnes můžu pomoci?
UMĚLÁ INTELIGENCE SE UČÍ NA OBSAHU, KTERÝ DO NÍ ZADÁVÁME
Umělá inteligence se učí na datech, která jí uživatelé poskytují, což jí umožňuje zlepšovat své odpovědi a rozšiřovat dovednosti. Tento proces však přináší významná rizika, pokud jde o ochranu citlivých informací. Každá vložená informace může být použita k dalšímu trénování modelu, a proto je nutné pečlivě zvážit, jaké údaje do systému zadáváme. Citlivé informace, jako jsou osobní údaje, rodná čísla, přístupová hesla, nebo dokonce detaily o zdravotním stavu, by do takových nástrojů nikdy neměly být vkládány. Jakmile jsou data jednou zpracována umělou inteligencí, jejich odstranění nebo dohledání, jak byla použita, může být prakticky nemožné.
UMĚLÁ INTELIGENCE A GENEROVÁNÍ OBSAHU
Jak již bylo řečeno, nástroje generativní umělé inteligence dokáží generovat texty, ale také audiovizuální obsah (fotografie, hudbu, lidskou řeč, video apod.). To lze samozřejmě využít pozitivně, ale bohužel také negativně - třeba k tvorbě různých typů online podvodů či šíření nepravdivých či zkreslených informací. Vytvoř tento obsah s podporou AI pak trvá pouze velmi krátkou dobu.
TVORBA PLAGIÁTŮ, PODVÁDĚNÍ (TŘEBA VE ŠKOLE)
Generativní umělá inteligence se stává čím dál dostupnější a snadněji použitelnou, což vede k riziku jejího zneužití pro neetické účely, jako je tvorba plagiátů a podvádění. Studenti a uživatelé všech věkových kategorií mohou tyto technologie využít k vytváření školních prací, esejí či jiných textů, které vydávají za své vlastní, aniž by do nich vkládali skutečné úsilí. Tento problém narušuje vzdělávací proces a znehodnocuje práci těch, kteří své úkoly plní poctivě. Navíc se objevují situace, kdy je AI zneužívána i v profesionálním prostředí, například k vytváření falešných dokumentů nebo k opisování odborných textů, což může mít vážné dopady na akademickou a profesní integritu.
AI dnes dokáže vytvářet přesvědčivé texty, které jsou na první pohled k nerozeznání od práce člověka. Tato schopnost však otevírá dveře masové produkci dezinformací, hoaxů a falešných zpráv. Tyto texty mohou být využity k manipulaci veřejného mínění, ovlivňování politických rozhodnutí či šíření paniky. Nepravdivé informace se často maskují jako důvěryhodné zprávy, a protože AI může generovat obsah ve velkém objemu a rychle, je pro běžného uživatele obtížné rozeznat pravdu od lži. Tato rizika vyžadují zvýšenou mediální gramotnost a důraz na ověřování informací.
Přestože obsahují běžné nástroje etické limity, které tvorbu dezinformačních textů omezují, i tyto limity lze velmi snadno obejít. Vyzkoušejte, jak bude generativní umělá inteligence (GPT4) reagovat, když ji požádáte o tvorbu dezinformace zaměřené třeba proti vládě... a jak se dá její limit obejít.
KLONOVÁNÍ LIDSKÉHO HLASU
Pokročilé technologie generativní umělé inteligence umožňují klonování lidského hlasu s vysokou přesností. Stačí několikasekundový záznam hlasu, aby mohla AI vytvořit jeho přesnou kopii, kterou lze dále použít k tvorbě zvukových nahrávek. Tyto technologie představují riziko pro bezpečnost a soukromí, protože umožňují podvodníkům imitovat konkrétní osoby, například v telefonických podvodech nebo při šíření falešných zpráv. Klonování hlasu může být také zneužito k narušení důvěry, například při šíření falešných výroků známých osobností či politiků.
Ukázky klonovaných hlasů
Petr Pavel (prezident)
Jiřina Bohdalová (herečka)
Před slovenskými parlamentními volbami v roce 2023 došlo ke zneužití umělé inteligence prostřednictvím deepfake technologie, kdy byla vytvořena falešná nahrávka telefonického rozhovoru mezi předsedou Progresivního Slovenska a novinářkou Monikou Tódovou. Obsah nahrávky naznačoval manipulaci volebních výsledků. Ačkoli byla tato nahrávka potvrzena jako falešná jak slovenskou policií, tak i agenturou AFP, rychle se šířila po internetu a pravděpodobně ovlivnila část voličů. (Zdroj)
TVORBA DEEP FAKE FOTOGRAFIÍ
Generativní AI dokáže vytvářet realistické fotografie, které však nezachycují skutečné události nebo osoby. Tento proces, známý jako tvorba deep fake, umožňuje například manipulaci s fotografiemi politiků, celebrit nebo běžných občanů. Tyto snímky se mohou stát nástrojem dezinformačních kampaní nebo kyberšikany. Pro laické uživatele je obtížné rozpoznat, že jde o falešný obraz, což zvyšuje riziko, že budou takové fotografie považovány za autentické. Tato technologie rovněž představuje hrozbu v kontextu narušení soukromí a šíření kompromitujících snímků.
Ukázky deep fake fotografií
Deep fake fotografie generované AI jsou v současnosti využívány např. v rámci předvolebních kampaní, příkladem mohou být např. falešné fotografie Donalda Trumpa obklopeného Afroameričany, které zaplavily internet v rámci volební kampaně na US prezidenta a které mají ukazovat, že má u těchto voličů velkou podporu. Ve skutečnosti však jde o podvod, který má pouze ovlivnit veřejné mínění (Zdroj).
Ukázky deep fake fotografií využitých v rámci kampaně DT
Deep fake fotografii si můžete během několika vteřin vytvořit i vy! Vyzkoušejte např. aplikaci DeepFake CivAI.
TVORBA DEEP FAKE VIDEÍ
Deep fake videa jsou digitálně upravená videa, která pomocí speciálních programů a umělé inteligence dokážou velmi věrohodně napodobit tvář, hlas nebo pohyby někoho jiného. Tato technologie umožňuje například vložit obličej jedné osoby do videa s jiným tělem (tzv. face swap) nebo vygenerovat konkrétní osobu v naprosto jiném prostředí/situaci/kontextu.
Deep fake videa mají různé využití – mohou sloužit pro zábavu, ve filmech nebo při tvorbě speciálních efektů. Bohužel však mohou být také zneužita, například k šíření falešných informací, diskreditaci lidí, vydírání nebo manipulaci s veřejností. Velmi často se také využívají v rámci internetových podvodů. Právě proto je důležité vědět, že takové technologie existují, a naučit se rozpoznat, co je skutečné a co falešné.
Ukázky deep fake videí v rámci podvodů
Uživatelé internetu se nechají známou osobností zlákat např. k finanční investici (akcie, kryptoměny apod.), ve skutečnosti však podvodníci proniknout na jejich účet a převedou z něj finanční prostředky.
GENEROVÁNÍ DEEP NUDE
Jedním z nejzávažnějších rizik generativní umělé inteligence je schopnost vytvářet deep nude fotografie, tedy realistické obrázky/fotografie obnažených osob - a to jak fiktivních, tak i reálných. Tato technologie může být zneužita k šíření nepravdivých kompromitujících materiálů, například při kyberšikaně, vydírání nebo sexuálním obtěžování. Největší hrozbu představuje generování takových snímků s dětmi či mladistvými, což je nejen eticky nepřijatelné, ale i trestně stíhatelné (tyto materiály jsou považovány za dětskou pornografii).
V tuto chvíli jsou evidovány desítky případů, kdy si např. chlapci na základní či střední škole pomocí této technologie vygenerovali fotografie svých svlečených spolužaček, které následně šířili prostřednictvím sociálních sítí. (Zdroj)
DALŠÍ RIZIKA SPOJENÁ S UMĚLOU INTELIGENCÍ
Rozvoj umělé inteligence zásadně mění pracovní trh. Automatizace postupně nahrazuje lidi v rutinních úkolech, což vede ke ztrátě pracovních míst, zejména v méně kvalifikovaných oborech. Na druhou stranu přináší nové příležitosti pro ty, kdo se naučí AI ovládat. Tito lidé získají konkurenční výhodu, protože jejich schopnost efektivně využívat AI zvýší produktivitu a hodnotu jejich práce. Klíčové je rozlišovat, kdy AI slouží jako nástroj pro podporu člověka, a kdy naopak přebírá jeho roli.
Znepokojivé je riziko zneužití AI k vývoji nových typů zbraní (např. biologických). AI dokáže během krátké doby navrhnout vysoce toxické látky nebo optimalizovat strategie útoků, mnoho bojových systémů se díky AI velmi rychle může stát autonomními (drony atd.). Kromě toho se AI stává nástrojem pro realizaci kyberkriminality, což může mít vážné důsledky pro bezpečnost jednotlivců i institucí.
Dalším problémem jsou ekologická rizika - provoz AI vyžaduje obrovské množství energie a vody, což zvyšuje její ekologickou stopu a přispívá ke klimatické krizi. Bez snížení energetické náročnosti této technologie může její rozmach ohrozit environmentální udržitelnost.
Zároveň hrozí, že lidé budou na AI příliš závislí, což může vést k oslabení kritického myšlení a praktických dovedností. Společnost, která ztrácí schopnost řešit problémy bez technologií, riskuje "zhloupnutí". Proto je zásadní podporovat rovnováhu mezi využíváním AI a rozvojem lidských schopností, aby se technologie stala přínosem, nikoli hrozbou.
KONTAKT
Centrum prevence rizikové virtuální komunikace (E-Bezpečí)
Pedagogická fakulta Univerzity Palackého v Olomouci
Žižkovo náměstí 5
Olomouc, 77900
Tato webová stránka vznikla v rámci projektu CEDMO 2.0 NPO, reg. č. MPO 60273/24/21300/21000 | NPO /1, který je financován v rámci Národního plánu obnovy.