Хокинг: ИИ може да е най-лошото събитие в човешката история

4472
Хокинг: ИИ може да е най-лошото събитие в човешката история

© flickr/LwpKommunikáció

Появата на изкуствен интелект (ИИ) може да бъде „най-лошото събитие в историята на нашата цивилизация”, освен ако обществото не намери начин да контролира разработката му, каза физикът с легендарен статус Стивън Хокинг, цитиран от CNBC.

Той направи коментара по време на технологичната конференция Web Summit, провеждана в Лисабон, Португалия. Според Хокинг, „компютрите могат на теория да подражават на човешкия интелект и да го надминат”.  

От друга страна, британският астрофизик смята, че ИИ може да помогне за справянето с щетите, нанесени на природата, като освен това може да помогне за изкореняване на бедността и болестите, като всеки един аспект на обществото бъде „трансформиран”.

Хокинг обаче мисли, че бъдещето е несигурно.

„Успешното създаване на ефективен ИИ, може да бъде най-голямото събитие в историята на нашата цивилизация. Или най-лошото. Просто все още не знаем. Така че няма как да разберем дали ще бъдем постоянно подпомагани от ИИ или ще бъдем игнорирани и поставени настрана от него, или евентуално ще бъдем унищожени”, каза Хокинг в речта си по време на събитието. 

„Освен ако не се научим как да се подготвим за него и как да избегнем потенциалния риск, ИИ може да бъде най-лошото събитие в историята на човешката цивилизация. Той носи опасност, подобно на мощно автономно оръжие или нов начин за малцина да подтискат множеството. Това може да доведе до сериозни сътресения в нашата икономика”, посочва физикът.

Според Хокинг, създателите на ИИ трябва да „използват най-добрите практики, както и ефективен мениджмънт”.

Ученият приветства някои политики в Европа, където вече се говори за ново законодателство относно правилата, свързани с ИИ и роботиката. Членове на Европейския парламент вече посочиха, че тази сфера се нуждае от регулация.

Подобни планове дават надежда на Хокинг.

„Аз съм оптимист и вярвам, че можем да създадем ИИ в името на доброто в този свят. Така той ще може да работи в хармония с нас. Просто трябва да сме внимателни за опасностите, да ги идентифицираме, да използваме най-добрите практики и мениджмънт и да се подготвим предварително за последствията от всичко това”, каза ученият.

Хокинг: Ако не населим друга планета до 100 г., може да изчезнемПредишни прогнози на професора сочеха, че човечеството има около 1000 години, преди да се изправи пред изчезване

Това не е първият път, в който Хокинг предупреждава за опасностите, които крие ИИ. Думите му попадат в общия хор на учени и личности от технологичния свят, които изказват подобни притеснения.

Сред тях е и основателят на Tesla и SpaceX Илон Мъск, който посочи, че ИИ може да предизвика трета световна война. Милиардерът даже създаде компания, която работи за свързване на човешкия мозък с машините, тъй като вярва, че това е единственият начин хората да останат фактор в бъдещето.

Основателят на Microsoft Бил Гейтс също има мнение по въпроса.

Според него, роботите трябва да плащат подоходни данъци, тъй като трябва да се намери ресурс, който да компенсира загубата на работни места в резултат на автоматизацията.

Някои технологични лидери пък открито се противопоставят на апокалиптичните сценарии.

Създателят на Facebook Марк Закърбърг заяви, че е оптимист за бъдещето на ИИ. 

Подобни статии

Най-четени статии

Facebook Коментари

Добави коментар

Екипът на Profit.bg Ви благодари, че използвате кирилица за вашите коментари.
В случай, че коментарът Ви съдържа нецензурни квалификации и лични нападки или обиди на расова, сексуална, етническа или верска основа, той ще бъде изтрит от модератора на сайта.

Абонирайте се за електронния
информационен бюлетин на Profit.bg