ЧОВЕКЪТ
&
ИЗКУСТВЕНИЯТ ИНТЕЛЕКТ

Става все по-трудно да различаваме между съдържание, създадено от човек, и от изкуствен интелект (AI).

И със скоростта на развитие на AI, скоро може би двете ще бъдат изцяло неразличими.

Това може да има последствия, които не винаги да сме готови да приемем. Затова трябва да познаваме и контролираме рисковете, свързани с използване на AI, и да предприемем спешни мерки и действия – както на ниво политики, така и на ниво лично участие.

Разбери как да станеш активен участник в тази нова ера и как да допринесеш лично за отговорното използване на изкуствен интелект.

РИСКОВЕ И ПОСЛЕДСТВИЯ

Дезинформация и манипулация

AI технологиите могат да бъдат използвани за генериране на невярна информация и  манипулиране на общественото мнение – от изключително убедителни deepfake видеа до онлайн ботове, които манипулират обществения дискурс, като симулират консенсус или разногласия и разпространяват фалшиви новини. Това дава на AI потенциал да се превърне в заплаха за демокрацията в глобален мащаб. От една страна, реални престъпления от режими, политици или обществени фигури, се “приписват” на изкуствения интелект, а от друга чрез AI се генерира информация за събития, инциденти или нарушения, които никога не са се случили.

Вече масово започнаха да се появяват сайтове с AI “журналистика” – които, отвъд безкрайно евтини за поддръжка, могат да са и особено опасни. Такива платформи имат потенциала да засилват усещането за информационен хаос и дезориентация и да завихрят медийната буря до пълно потъване и обезличаване на истината.

Експертите все повече се затрудняват да кажат с категоричност дали нещо е реално, или генерирано. Различаването между лъжа и истина, между фалшиво и действително, ще става все по-трудно, което ще постави в риск ключови за всяка демокрация принципи – като достъпа до информация, справедливостта и върховенството на правото.

Етични въпроси

Въвеждането на етични и правозащитни ценности в системите с AI, особено в контекста на вземане на решения с  последици, е значително предизвикателство. Едновременно с това, AI е вече и в съдебната зала. Има нужда от  правна рамка, която да поставя ясни граници на приложимостта на AI при вземане на важни решения, засягащи човека – и винаги в допустимите такива случаи да изисква и човешка намеса, с която да се гарантира приложението на общоприетите етични норми.

Предразсъдъци и дискриминация

Възможно е AI системите да вземат пристрастни решения, ако допуснем да се учат от пристрастни данни. Това може да доведе до несправедливи и дискриминационни резултати, и съответно до затвърждаване или засилване на обществените предразсъдъци. 

Отвъд това, изключително важно е разработчиците на AI технологии да създават такива платформи, в които да се дава възможност за равен достъп участие на всеки човек

Рискове за сигурността

С усъвършенстването на технологиите на AI се увеличават и рисковете за сигурността, свързани с тяхното използване, както и потенциалът за злоупотреба с тях. Така например хакери и други злонамерени субекти могат да използват мощта на AI, за да заобикалят мерките за сигурност, да откриват уязвимости в системите и да разработват по-усъвършенствани кибератаки. Ако няма ясни общоприети правила, правителства могат да използват безконтролно AI технологии под твърде общ претекст, че това е с “цел опазване на националната сигурност” – и да прилагат масово наблюдение и следене на хора.

Проблем с поверителността

AI се нуждае от много данни, което повдига въпроси, свързани с процеса как се набират и какви гаранции има за неприкосновеността на личния живот и сигурността на информацията, и опасения дали личната ни информация няма да попадне в грешните ръце. Често се споменава, че AI е като черна кутия, в която не сме сигурно какво и как влиза и как се формира резултатът на изхода. Неясен е механизмът на изчисления и операции, при чието прилагане се обработват нашите данни. 

Рискове пред
интелектуалния труд

Независимо от това, че може да бъде силен инструмент за стимулиране и подкрепа на човешката креативност, AI е и сериозно предизвикателство в тази сфера. Използването на AI за възпроизвеждане или имитиране на стила на съществуващи творци без тяхното разрешение повдига серия етични въпроси. Пред авторството върху произведенията на изкуството, научните трудове, въобще интелектуалната собственост, стоят редица проблеми: кой всъщност е авторът и как се урежда неговото авторско право; какви са последиците от това (в т.ч. и в доходите, които авторите следва да получават от своя творчески и/или интелектуален труд); какво става с чисто човешката, автентична и одухотворяваща стойност на изкуството?

Мерки на ниво политики

Справянето с предизвикателствата, породени от AI, налага съгласувани интервенции на ниво политики. Комбинация от защитни и проактивни мерки може да помогне за защитата на интересите на хората и обществото като цяло, докато се ориентираме в сложността, въведена от вече много напредналия AI.

Законодателство и регулация
Изключително важно е да се разработят нови правни рамки и регулации за справяне с новите по своя характер проблеми и обществени отношения, произтичащи от използване на AI технологиите. Правните системи трябва да се развиват, за да са в крак с технологичния напредък и да защитават правата на всички:

  • Трябва да има ограничения в прилагането на AI съдържание за определени сфери, в които не можем да изключим човешката преценка: правораздаване, национална сигурност, практики, които имат значителен потенциал да манипулират хората чрез сублиминални техники отвъд рамките на съзнаваното от човека. 

  • Интелектуалната собственост: Законите за интелектуалната собственост трябва да бъдат преразгледани, за да се вземе предвид генерираното от AI съдържание. Ясните правни рамки могат да помогнат за защитата на създадените от човека творения от неразрешени репликации от AI.

  • Злонамерено съдържание: Следва да има строги предвидени наказания за онези, признати за виновни в производството или разпространението на злонамерено съдържание, генерирано от изкуствен интелект.

  • Поверителност: Трябва да се премине към по-строги правила за защита на данните и към по-безопасни практики за обработка на данни.

Регулиране на deepfakes
Има нужда от прилагане на специфични разпоредби срещу злонамереното използване на deepfakes, особено онези, които могат да застрашат националната сигурност, да дестабилизират изборите или масово да разпространят невярна информация. Производителите и разработчиците на AI модели, особено тези, способни да създават реалистични deepfakes, трябва да бъдат държани отговорни за непредвидените последици от техните продукти.

Разширяване на възможностите за разпознаване
Инструментите за откриване на deepfakes трябва да бъдат по-широко разпространени, с инвестиции в научноизследователска и развойна дейност за подобряване на тяхната ефективност и точност. Тези инструменти също трябва да бъдат демократизирани, така че да са достъпни не само за големи организации, но и за независими журналисти и широката общественост. Отговорността тук следва да се носи от създателите на моделите с изкуствен интелект. 

Извършване на оценка на въздействието на AI върху правата на човека 
Необходимо е извършване на задълбочена оценка на въздействието, което прилагането на AI технологиите имат върху правата на човека, особено в дигитална среда. Изследователите и разработчиците трябва да дадат приоритет на етичните последици от технологиите с изкуствен интелект, за да бъдат избегнати отрицателни обществени въздействия.

Насърчаване на прозрачността
Има нужда от генерално насърчаване на прозрачността в сферата на AI. В допълнение, платформите следва да включват етикети, които уточняват дали дадено съдържание е направено от човек, генерирано от AI, или е резултат от сътрудничество между двете.

Подобряване на дигиталната грамотност
От огромна важност е интегрирането на дигитална и медийна грамотност в образователните програми, с цел хората да имат възможност да получат необходимите знания и умения как да различават автентичното съдържание от манипулираното. Има нужда и от осигуряване на специални обучения за журналисти и граждански активисти за идентифициране и развенчаване на генерираната от AI дезинформация.

Насърчаване на международното сътрудничество
Правителствата и международните организации трябва да създадат и споделят най-добри практики, изследвания и решения за справяне с предизвикателствата, поставени от AI в различни области; както и да си сътрудничат на глобално ниво за установяване на общи норми и правила, които защитават от AI заплахи за сигурността.

Научни изследвания в областта на AI
Има нужда от отделяне на мащабни средства за академични и независими изследвания, които проучват рисковете и последиците от AI.

Специална защита за whistleblowers 
За да се насърчат повече служители в компании или държавни органи да представят информация относно създаването или разпространението на deepfakes, трябва да има специални закони за защита на whistleblowers

Подкрепа на авторството 
Време е за разработване на политики, които гарантират справедливо възнаграждение и защита за всички хора, които създават художествени, научни и всякакъв вид произведения, продукт на интелектуална дейност. Те не могат да бъдат заменени от AI. Отвъд това платформите, които използват съдържание, генерирано от AI, трябва да осигурят модели на справедливо възнаграждение на авторите на обектите на интелектуална собственост, послужили като захранващи данни за AI платформите. 

Едновременно с това насърчаването и отбелязването на уникалната, автентична емоционална връзка, която реалните творци внасят в своята работа, е от особено значение. Това може да се случи чрез провеждане на кампании, които образоват обществеността за стойността на създаденото от човек изкуство, като подчертават важността на подкрепата за истинските творци.

ДЕЙСТВАЙ

И НА ФОНА НА ВСИЧКО ДОСЕГА ЕТО КЪДЕ ИДВАШ И ТИ

Практикувай критична консумация

Винаги подхождай със скептицизъм към сензационно съдържание. Потвърждавай такава информация преди да й се довериш или разпространиш. Проверявай няколко реномирани новинарски издания, за да видиш дали отразяват една и съща тема по сходен начин.

Избягвай импулсивното споделяне на сензационно или провокативно съдържание, без да провериш автентичността му. Уебсайтове като Snopes.com, FactCheck.org, Factcheck.bg и други могат да бъдат ценни ресурси за развенчаване на фалшиви новини. Използвай инструменти за проверка – като обратното търсене по изображения на Google и специални инструменти за откриване на deepfakes. Търси несъответствия в осветлението, аудио синхронизирането, сенките или други визуални/слухови елементи. За изображения и видеоклипове метаданните могат да предоставят улики за това кога и как е създаден даден файл – като инструменти като InVID могат да помогнат при проверката. Ако срещнеш потенциални deepfakes на платформи като YouTube, Facebook или Twitter, докладвай на съответната платформа за това. 

Търси и споделяй знания

Проактивно търси информация за най-новите развития и предизвикателства около AI, информирай се по темата етика в технологиите, и споделяй това знание с твоите приятели и близки.

Застъпвай се за промяна

Застъпвай се за или подкрепяй политики, които защитават истината и правата на човека в дигиталната ера. Стартирай или подписвай петиции; сътрудничи си с неправителствени организации; използвай медиите и социалните медии; и най-важното – гласувай, в подкрепа на политици или партии, споделящи твоите възгледи за необходими промени.

Подкрепяй местни творци

Закупуването на произведения на изкуството, посещаването на представления или дори просто споделянето и популяризирането на артисти в социалните медии може да осигури безценна подкрепа. Като активно подкрепяме и се застъпваме за хората на изкуството, можем да повлияем за установяването на култура, която цени и защитава човешката креативност на фона на разрастващите се възможности на AI.