Опасности от изкуствения интелект - дийпфейк и фалшива информация
- Радослав Кирков
- Dec 8, 2025
- 4 min read
Updated: 3 days ago

Как да се предпазим от дийпфейк и други видове фалшива информация, генерирана от изкуствения интелект
Изкуственият интелект е безспорно мощен инструмент, който се използва успешно и ползотворно в различни области, включително за нови научни постижения и подобряване на здравето на хората. Тези предимства имат с значителна цена и множество предизвикателства, рискове и заплахи, които включват:
заплаха за човешките права и демокрацията
увеличаване на неравенството между хората
рискове свързани с образованието
безработица и икономически заплахи
разработвене на оръжия и заплаха на националната сигурност
измами чрез дийпфейк и други видове фалшиви новини и информация
изразходване на голям обем природни и енергийни ресурси
според някои твърдения, достигане до свръхинтелект, който би могъл да се превърне в екзистенциална заплаха за човечеството.
В серия от статии ще разглеждаме всяка от тях и ще представим потенциални решения за намаляване на негативното им влияние. В настоящия текст се фокусираме върху заплахите от измами чрез фалшива информация.
Заплахи
Дийпфейкове (Deepfake) са изображения, видеоклипове или аудио, които са редактирани или генерирани с помощта на изкуствен интелект. Примери за такъв тип измами са видео материали с известни публични личности, които съобщават фалшива новина, правят реклама на даден продукт, или техният образ е използван за порнографско или друго фалшифицирано съдържание. Освен, че се прилагат за заблуда, такъв вид материали се използват и за изнудване на хората, които участват в тях.

Един от известните примери е този на снимката на експлозия близо до Пентагона. Изображението се появява през 2023 г. в социалните медии и бързо се разпространява като снимка, която предполага възможна терористична атака. Изображението изглежда автентично и дори за кратко се поява в някои водещи медии. Това води до краткотраен спад на американския фондов пазар, като S&P 500 се понижава, преди да се разбере, че е Дийпфейк. (nypost.com)
Дийпфейк снимките се използват за създаване на т. нар. „sockpuppets“ – несъществуващи хора, които са активни онлайн. Пример за това е страницата във Facebook „Zionist Spring“ (Ционистка пролет), която е публикувала снимки на несъществуващи хора, заедно с техни „свидетелства“, които обясняват как преди са били привърженици на лява политика, но мнението им се променило и са започнали да поддържат дясната политика на премиера Натаняхо. (972mag.com).
С помощта на големите езикови модели (Large Language Models), от които ChatGPT е един от най-популярните, евтино се създават многобройни фалшиви профили в социалните мрежи, които целят да влият на общественото мнение за определени въпроси. Един такъв софтуер е Aims, поддържащ 30 000 фалшиви профила в социалните мрежи. (jerz.setonhill.edu)
Измамници използват дийпфейкове, за да подвеждат към фалшиви инвестиционни схеми, финансови злоупотреби, криптовалути, изпращане на пари и следване на реклами. Според скорошно проучване,
през 2027 г. се очаква загубите от такъв вид измами да достигне 40 милиарда долара на година в световен план. (forbes.com)
Може да се възрази, че тези опасности са валидни само или предимно за публичните личности. Но, ако сте от хората, които споделят лични снимки и видеоклипове в социалните мрежи, то навярно информацията, публикувана от Вас е достатъчна, за да може да се генерира дийпфейк от недоброжелатели. Необходимо е само желание от някого. И при това използването на някои от инструментите за дийпфейк е много лесно, бързо и не са необходими дълбоки технологични познания (forbes.com).
За да се копира гласа Ви и се възпроизведе убедителен дигитален клонинг, който говори като Вас, е необходим запис от Ваша реч от няколко секунди до минута. За да се направи реалистично дийпфейк видео с Вашето изображение през 2019 г., са били необходими 500 снимки или 10-минутно видео, но поради бързото развитие на изкуствения интелект, това вече може да стане и с по-малко изображения. (eu.usatoday.com)
При 300 наши like-a във Facebook изкуственият интелект на социалната мрежа ни създава психологичен профил, с който ни познава по- добре от най-близките ни хора. (inc.com)
Може да получите телефонно обаждане от Ваш близък или от началника ви с молба да преведете спешно средства в дадена банкова сметка. Той дори може да ви разкаже убедителна история от Вашето минало и да обсъдите с него общи познати, а няколко дни по-късно да разберете, че човека, с който сте говорили и сте били сигурен, че ваш добър познат, всъщност е част от измама.

Какво можем да направим
Проверявайте източниците на информация и новини. Имайте предвид, че дори водещите медии се случва да публикуват фалшиви новини, както е случая с гореспоменатата снимка на Пентагона.
В Интернет използвайте трудни и дълги пароли и което е по-важно двуфакторната автентикация, с която да потвърждавате през телефона си или по друг начин, че наистина Вие се опитвате да влезете в даден сайт или програма. (icdsoft.com)
Дийпфейк измамите в много от случаите казват, че трябва да се вземе бързо решение. Трик, който цели да бъдете поставени под натиск и да не използвате ефективно рационалната част на мозъка си. Ако получите обаждане от непознат номер с глас на Ваш близък, убедете се, че човека, с когото говорите е наистина този, за който се представя, преди да споделите конфиденциална информация или да предприемете действия по тяхна заръка. В случай на съмнение, може да зададете въпрос извън контекста за информация, която не е публично известна, за да проверите дали ще отговори адекватно.
Старайте се да не приемате приятелства в социалните мрежи с непознати, които биха могли да бъдат фалшиви профили. Този вид профили често споделят само съдържание от други потребители, нямат много свързани приятели в социалната мрежа и нямат коментари под техните публикации. (metricool.com)
Едно от най-важните неща е да не споделяме и издаваме твърде много лична информация не само в социалните мрежи, но и в частните ни съобщения, в чат програмите, имейлите, езиковите модели като ChatGPT, и всякакви приложения, инсталирани на телефоните и лаптопите ни. Има множество случаи, когато дори най-големите корпорации са били успешно пробити от хакери и са били откраднати пароли и друга конфиденциална информация на потребителите. Например, през юни 2025 г. бяха хакнати 16 милиарда пароли за Apple, Facebook, Google и други (www.forbes.com), а през номеври OpenAI потвърждава изтичането на данни от ChatGPT (Euronews). При предишен такъв пробив на OpenAI са били откраднати лични данни и въпроси, задавани от потребители на ChatGPT (pcworld.com).
Всяка лична информация, която споделяме в интернет може да бъде достъпена от недоброжелатели и по тази причина не трябва да споделяме документи и информация за нашите финанси, за здравословните си проблеми, за взаимоотношенията ни с хората и всичко друго, което би могло да бъде използвано срещу нас и нашите близки.


Comments