Главният изпълнителен директор на OpenAI Сам Алтман прогнозира, че изкуственият общ интелект (AGI) – който ще превъзхожда хората в повечето задачи – ще бъде постигнат около 2027 или 2028 г.

От своя страна, Илон Мъск очаква това да се случи още по-рано, през 2025 или 2026 г., като дори признава, че „не може да заспи“ заради потенциалните рискове, които ще донесе технологията. Но дали тези прогнози са реалистични?

Много експерти в областта на AI се убеждават още повече, че увеличаването на мощността на съвременните модели няма да доведе до AGI. Вместо това големият риск през 2025 г. ще дойде не от свръхинтелигентния AI, а от начина, по който хората го използват, пише WIRED.

Неправилната или безразборна употреба на технологията и сега предизвиква сериозни проблеми, особено в сферата на правото.

След пускането на ChatGPT, редица адвокати са санкционирани за използването на AI в изготвянето на документи, които се оказват пълни с измислени или неточни данни, заради халюцинациите на модела.

Например в Канада адвокатът Чонг Ке беше задължен да плати разноските на другата страна, след като внася съдебни документи с фалшиви прецеденти, генерирани от AI.

В Ню Йорк двама адвокати – Стивън Шварц и Питър ЛоДука – са глобени с 5000 долара за подаване на неверни цитати.

А в Колорадо адвокатът Захари Крабил е временно отстранен от практика заради подобни нарушения, като дори е опитал да прехвърли вината на свой стажант.

Тези случаи показват, че проблемът не е в самия изкуствен интелект, а в неподходящата му употреба. С развитието на технологиите отговорността на хората, които ги използват, става все по-голяма.

През януари 2024 г. социалните мрежи са наводнени от сексуално съдържание, създадено чрез дийпфейкове на Тейлър Суифт.

Тези изображения са генерирани с помощта на AI инструмента Designer на Microsoft. Въпреки че компанията има своите защитни мерки, за да предотврати използването на реални личности, дори малка (съзнателна) грешка при заявка с изписването на името на певицата е достатъчна, за да се заобиколят ограниченията.

Microsoft бързо се справи с проблема, но случаят показва какво всъщност се случва зад кулисите – Тейлър Суифт е само върхът на айсберга, докато несанкционираните дийпфейк изображения се разпространяват все повече, отчасти благодарение на достъпните инструменти за тяхното създаване.

Законодателства в цял свят се опитват да се справят с проблема, но тяхната ефективност предстои да бъде тествана. През 2025 г. ще стане още по-трудно да се различава реалното от генерираното.

Качеството на генерираните от AI аудио, текстове и изображения вече е впечатляващо, а видеото е следващият етап. Това би могло да доведе до така наречения "дивидент на лъжеца" – феномен, при който влиятелни личности отхвърлят доказателства за тяхно неправомерно поведение, твърдейки, че са фалшифицирани.

През 2023 г. например Tesla заяви, че видеоклип от 2016 г., в който Илон Мъск говори за безопасността на автопилота, може да е дийпфейк след обвинения в подвеждащи твърдения, довели до инцидент.

В Индия политик отрича автентичността на аудио записи, в които признава за корупция – въпреки че един от тях бе потвърден като истински.

А в САЩ двама обвиняеми в щурма на Капитолия от 6 януари твърдят, че видеокадрите с тях са дийпфейк. И двамата обаче са с активна присъда.

Докато обществото се опитва да се ориентира в тази нова реалност, компаниите експлоатират объркването, за да предлагат съмнителни продукти с AI етикети. Това може да има сериозни последици, когато такива инструменти се използват за класифициране на хора и вземането на важни решения.

Например Retorio, компания за наемане на персонал, твърди, че нейният AI може да подбира подходящи кандидати въз основа на видео интервюта. Но проучване разкрива, че алгоритъмът може лесно да бъде манипулиран с обикновени трикове, като носене на очила или фон с рафтове за книги.

Това показва, че системата разчита на повърхностни корелации.

В още по-широк контекст десетки AI приложения в здравеопазването, образованието, финансите, наказателното право и застраховането вече лишават хората от важни възможности.

В Нидерландия данъчната служба използва AI за разкриване на измами с детски помощи, но алгоритъмът погрешно обвинява хиляди родители. Те са принудени да връщат огромни суми, а в последствие на скандала премиерът и целият му кабинет подават оставка.

През 2025 г. рисковете от AI няма да идват от самия изкуствен интелект, а от това как хората го използват. Преодоляването на тези рискове е огромно предизвикателство за компаниите, правителствата и обществото.