Познай кой ти се обажда

Познай кой ти се обажда

https://albero.site/templates/shablon/images/obsledovanie/how_1.png

Новините за най-нови постижения в създаването и развитието на изкуственият интелект (алгоритъм) вече летят към нас не след месеци и години, а за дни и седмици. Докато се ориентираме в поредното съобщение, то вече е остаряло – появило се е ново, още по-впечатляващо.  Изненадваме се не  само ние, които сме далеч от тънкостите на този занаят, но и хора, които с това си изкарват хляба: често други ги изпреварват, като намират решение на проблем, над който те отдавна се тормозят.

Много са причините, които са в основата на невероятното темпо в развитието на алгоритмите: ожесточената конкуренция в съвременния свят, необходимостта да се търсят нови ресурси за повишаване на ефективността на труда, все по-острият дефицит на кадри с определени качества и пр. Силен тласък несъмнено придават и непрекъснато увеличаващите се инвестиции в този сектор. А когато няма недостиг на пари, то могат да бъдат привличани и най-добрите кадри от всяко кътче на планетата.

А алгоритмите вече с какво ли не се ангажират – от управлението на безпилотни автомобили до лични асистенти. Но има две области, в които те са особено желани: военната и тази на манипулацията. И в двете целта е да се осигури надмощие и да се приберат парите на другите.

За приложението на алгоритмите във военната сфера сега няма да разказвам независимо, че следя точно тази тема с огромен интерес – това ще направя в следващи публикации на сайта ми. А днес ще ви предложа информация за това, как алгоритмите вече се научиха да  говорят с нашия глас. Само да не останете с впечатлението, че това не ви засяга – то касае всеки един от нас, който разполага с пари в джоба си или по сметка.

Алгоритмите се научиха да възпроизвеждат човешкият глас и то със стопроцентова точност – досущ като на живият му притежател. Доскоро знаехме, че точно той няма как да бъде възпроизвеждан, защото е уникален и неповторим. Не е като да фалшифицираш подпис, да имитираш нечий чужд продукт, модел и пр.

https://www.androidworld.it/wp-content/uploads/2014/02/Samsung-1280x853.jpg

Но това, което ние не можем или много трудно сме в състояние да направим, не е вече проблем за изкуственият интелект: той не само се обучава, но и сам усъвършенства изкуството си да бъде перфектният имитатор на всякакъв човешки глас.

Неотдавна стана известен любопитен случай в Германия. Оттам един технологично образован тарикат е използвал алгоритъм, за да се представи за директор на  компания пред шефа на свое поделение във Великобритания. По телефона той е наредил на тамошният свой заместник незабавно да направи паричен превод на сума от 243000 долара на унгарска компания-доставчик. И човекът превел спешно парите – та гласа на шефа си той нямало как да сбърка. Разследването на застрахователната компания Euler Hermes, която обслужвала пострадалата фирма стигнало до извода, че тарикатите са използвали програма за генерация на гласове, която я има в продажба.

Това не е единствен случай, когато алгоритми се привличат за гласови далавери. Компанията Pindrop, която се занимава с програмно осигуряване, съобщава за рязко увеличение на подобни мошеничества – те са скочили с 350 процента за периода от 2013 до 2017 г. Обект на атака са банки, кредитни агенции, застрахователни компании и др., но и частни лица.

В същото време алгоритмите, които се създават за да имитират гласове, бележат непрекъснато развитие. Медията Venture Beat ни информира за създаден от подразделението AWS на корпорацията Amazon нов алгоритъм, наречен Brand Voice. Става дума за един невероятен експерт по имитиране на човешки глас – в състояние е да го възпроизведе с всякакъв акцент или произношение. Алгоритъмът вече е започнал да работи за веригата ресторанти за бързо хранене KFC в Канада – там той говори с южно-американски акцент. А за Австралийската национална банка е бил разработен глас с произношение, характерно за тамошните жители.

Brand Voice е невероятно производителен: ако на актьор са му нужни десетки часове репетиции за да възпроизведе нечий глас, то на алгоритъма му трябват два-три часа, дори и по-малко. И ще може да имитира всеки глас, който му бъде поръчан с най-тънките негови интонации.

Друг алгоритъмModulate, създаден в MIT може освен да имитира конкретен глас, да трансформира всеки друг глас – да го подмлади, да смени пола на говорещия и т.н. Това е било демонстрирано на журналист от MIT Tech Review: той е прочел стихотворение, а алгоритъмът е превърнал гласа му в женски. Акцентът, ударението, интонацията – всичко е било негово, но е звучал така, сякаш говори момиче с висок глас. Алгоритъмът е в състояние да прави тези промени в реално време.

Специалисти по дезинформация предупреждават, че новите технологии правят все по-трудно да се различи истината от фалшификата, да се установи кое е реално, и кое е лъжливо. А влиятелният New York Times пише, че защита от алгоритмите – най-новото оръжие за масово поразяване, няма. За да стигнат до този извод негови журналисти са изпробвали изкуствен интелект за генериране на текстове. Така са установили, че е невъзможно вече да се отличи написаното от машина от сътвореното от човек. А това означава, че в нашето съзнание и подсъзнание ще се настаняват послания, които ние ще приемаме за истински и заслужаващи доверието ни.

https://www.smartweb.de/public/resources/images/news/junge-frau-telefoniert-mit-smartphone-1200.jpg

Сега узнаваме, че освен да пишат правдоподобни текстове, алгоритмите са в състояние да имитират и гласовете ни – така, че дори и най-близките ни хора да не предположат, че не с нас, а с машина разговарят.

Можем да си представим какво блестящо бъдеще се разкрива пред подобни изкуствени имитатори. С нетърпение ги очакват в политиката, в рекламата, в пропагандата, в търговията – та с тяхна помощ могат да се правят истински чудеса! Да се печели доверието на който трябва, да се вербоват съмишленици, да се правят препоръки от името на авторитетни личности, да се дискредитират други и т.н.

Ще трябва да свикваме с новите реалности –  дори, ако чуем по телефона глас, който иначе ще различим сред хиляди други гласове, това няма да означава, че ни звъни нашият близък, приятел, познат. И щем не щем към тези, на които не трябва сляпо да се доверяваме – политици, рекламисти, журналисти и пр., ще трябва да прибавим и още един симпатяга: изкуственият интелект.