Алгоритмите вече са навсякъде. Трябва ли да се притесняваме?
Всеки път, когато използвате смартфона си, активирате алгоритми.
Те се използват за всичко - от активирането на лицевото разпознаване до определянето на това какви видеа виждате в TikTok или избора на маршрут, който Google Maps ви предлага, за да избегнете задръстването по пътя до офиса.
Алгоритъмът, всъщност, представлява серия от правила и критерии, които компютърната система изпълнява, за да стигне до някакво решение. Те се използват и в други процеси извън интернет пространството.
В последните години от тях зависят все повече решения, включително и такива, които могат да променят човешки съдби - например кой затворник може да бъде освободен предсрочно или кой клиент на дадена банка да бъде одобрен за ипотечен кредит.
През последните няколко седмици компютърните алгоритми, използвани от големите корпорации, отново попаднаха във фокуса на регулаторите и законодателите, пише CNN. Един от поводите за това бяха разкритията на бившия служител на Facebook Франсис Хауген, която разкри порочни практики и пропуски във вътрешния контрол на компанията.
В САЩ в момента се обсъжда законопроект, който ще принуди компаниите да дадат възможност на потребителите си да посещават "свободни" версии на интернет платформите, където съдържанието да не бъде определяно от компютърни алгоритми.
Начинът, по който работят алгоритмите, и решенията, до които достигат, понякога изглеждат мистериозни. Техните изводи не винаги се разбират от потребителите, а понякога са и очевидно грешни. В същото време обаче те са изключително полезни, защото позволяват ускоряването на процеси, които са изключително сложни.
В своята същност обаче, те са просто последователност от стъпки. Всеки от нас следва определени алгоритми, дори и извън машините и технологичното си ежедневие. Приготвянето на една кулинарна рецепта, например, представлява алгоритъм. Същото важи и за сутрешните ни навици и поредицата от действия, които извършваме, поняга и несъзнателно, след като се събудим и станем от леглото.
Но докато човек може да изследва и променя собствените си действия, тези на машините стават все по-енигматични. Основна причина за това е възходът на изкуствения интелект и т. нар. "машинно учене". То позволява на компютрите да се "обучават", моделирайки програмния си код по начин, наподобяващ работата на невроните в човешкия мозък.
Една такава система, например, може да накара компютъра да "гледа" хиляди видеа с котки, за да разбере как изглеждат котките. Google успя да приложи успешно тази технология още през 2012 г.
Facebook, Instagram и Twitter използват подобни алгоритми, за да персонифицират съдържанието за своите потребители. Големият плюс на изкуствения интелект се крие в това, че той може да обработва огромни обеми от информация, с които човешкият мозък никога не би се справил.
Zillow използва платформа, която оценява стойността на жилищата от 2006 г. насам. Тя е базирана на "машинното учене" и обработката на серия от данни, включително данъчни оценки, история на имотите, както и различни детайли, въведени от собствениците - брой спални, снимки, интериор и др.
Но дори и в този случай няма застраховка от грешки. Наскоро Zillow беше принудена да отпише активи на стойност 304 милиона долара, като основната причина, която компанията цитира, е покупката на имоти на цени, които са били силно завишени спрямо пазарните.
Facebook пък попадна под ударите на регулаторите заради твърденията, че умишлено е настройвала алгоритмите на социалната си платформа, така че да показват конфликтно съдържание на потребителите.
Понякога грешките на алгоритмите могат да имат и по-тежки последствия. Използваните от полицията в САЩ системи за видеоразпознаване в няколко случая са довели до погрешни арести, припомня CNN.
Един от основните проблеми е свързан с факта, че компаниите по принцип не дават подробни обяснения за начина, по който работят алгоритмите им. А понякога дори и създателите на тези алгоритми не са напълно наясно с начина, по който изкуственият интелект взима определени решения. Затова много експерти наричат тези системи "черни кутии".
В Съединените щати няма федерално законодателство, което да определя в кои случаи и сектори може да се използват компютърни алгоритми. Някои градове и щати приеха собствени разпоредби, конкретно в сферата на лицевото разпознаване и използването на биометрични данни.
В момента в Конгреса се обсъжда закон, който стана известен като Filter Bubble Transparency Act (Закон за прозрачността на филтърните балони). Ако той бъде приет, компаниите, като Google, Meta и TikTok, ще трябва да дадат възможност на потребителите да използват платформите им, без съдържанието да бъде манипулирано от алгоритми за персонализация.
Facebook вече предлага подобна опция, която дава възможност на потребителите да виждат последните статуси и публикации в хронологичен ред, а не в този, предложен от алгоритъма. В платформата Instagram обаче, която също е част от групата на Meta, тази възможност беше премахната през 2016 г.
Засега Filter Bubble Transparency Act е насочен към големите социални платформи, но той със сигурност ще засегне и други приложения, като Spotify и Netflix, които също разчитат в голяма степен на алгоритмите, предлагайки съдържание на своите клиенти.
Има много технологични експерти, които поддържат тезата, че компаниите трябва да повишат прозрачността при използването и прилагането на алгоритми. Според тях има голямо "закъснение" от гледна точка на това, на което е способен изкуственият интелект и законовите регулации, които го контролират.