Как ще ни промиват мозъците утре

Как ще ни промиват мозъците утре

https://images.which-50.com/wp-content/uploads/2017/04/iStock-587231216-360x240.jpg

Всевъзможни властелини са използвали услугите на шамани, магьосници, заклинатели, проповедници, за да внушават в главите на своите поданици правилните мисли. Те са разбирали, че само със заплахи трудно биха постигали това, от което се нуждаят – зависимите от тях да се трудят ефективно и да увеличават богатствата им. Нужно е и още нещо: те да бъдат убедени, че мястото, което заемат под слънцето, справедливо определя ролята им на послушни и всеотдайни изпълнители на нарежданията на властимащите.
Появата на медиите – първо вестниците, после радиото и телевизията, откриха невероятни перспективи пред всевъзможни манипулатори. И до ден днешен те си остават мощен инструмент за вкарване в главите на милиони на нужните представи, за случващото се в света. Без това е немислимо достигането на основната цел – следването от тях на определен начин на поведение: този, който е изгоден на хората, щедро плащащи на медиите.
Но всичко това скоро ще отлети в небитието – в технологията за промиване на мозъци стремително и неотвратимо навлиза изкуствения интелект. А неговите възможности са несъпоставими спрямо всичко това, което е използвано в тази област досега. Или образно казано, все едно да се изправиш с автомат АК-47 срещу противник, въоръжен с “Армат – Т14” – върхът на танковата еволюция днес.
Влиятелният New York Times отбелязва, че защита от алгоритмите – най-новото оръжие за масово поразяване, няма. За да стигнат до този извод негови журналисти са изпробвали изкуствен интелект за генериране на текстове. Така са установили, че е невъзможно вече да се отличи написаното от машина, от сътвореното от човек. А това означава, че в нашето съзнание и подсъзнание ще се настаняват послания, които ще приемаме за истински, правдоподобни и заслужаващи доверие.
Но в действителност всички те ще са фалшиви. Особено ефективни са два алгоритъма, които създават мълниеносно възложени им текстове във всякакви жанрове. Първият от тях – GPT-2, е разработен от компанията OpenAI, чийто съоснователи са хора, като Илън Мъск, Рейд Хофман, Сам Алтман и др. Вторият е продукт на Института за изкуствен интелект “Пол Алън”, разположен в Сиатъл. И двата са в състояние да генерират уникални новини, които са неразличими от истинските. Достатъчно е да им се зададе тема или личност, която трябва да бъде дискредитирана например – алгоритъма ще се справи успешно с поръчката.

https://2.bp.blogspot.com/-byGJIe49tOc/WfyZGMfUQqI/AAAAAAAAv4o/iQnz69o7FccnjxugIcuN8QhkGEZD5-W5wCLcBGAs/s1600/Image%2B-%2Bwalking.jpg

Така журналисти от Wired предложиха на GPT-2 да създаде фалшива новина по ключовите думи “Хилари Клинтън и Джордж Сорос”. Алгоритъмът мигновено написа, че екс-държавния секретар на САЩ и финансиста с противоречив имидж “идеално се допълват един друг”.
GPT-2 засега е един от най-добрите. Той 12 пъти по-успешно от други съществуващи подобни генератори пише текстове, отбелязва The Guardian. За да достигне тези висоти на майсторлъка, той е бил обучаван върху масив от англоезични публикации в размер от 40 гигабайта (GB). Или другояче казано, това са около 10 милиона статии, които той е обработил.
Алгоритми – генератори на правдоподобни текстове, създават не само американски, но и други лаборатории от различни страни. Те се предназначени най-вече за целите на политиката и военните, но несъмненно ще бъдат активно ползвани и от бизнеса – за реклама например. Особено радостни ще са и пиарите, тъй като ще получат ефективни инструменти за обогатяване на тяхната най-добра техника – създаването и разказването на истории.
Като анализира цифровите отпечатъци, които оставяме в мрежата, алгоритъма ще разполага с нашите индивидуални предпочитания, нагласи, стереотипи. Въз основа на тях всяка новина, видеорепортаж, телевизионен сериал, той ще е в състояние да адаптира конкретно за нашия вкус. И тогава това, което ще четем, слушаме и гледаме за нас ще е напълно достоверно, защото то ще съвпада със собствените ни критерии за истинност.
Netflix например, вече проведе успешни експерименти, при които зрителя сам избира накъде да се развива сюжета на даден сериал и в каква подреденост той да му бъде показван. Скоро съобразно вкусовете на човека ще се променят емоциите в текста, неговия стил, а във видеоматериалите – осветлението на сцените, използваните аргументи, музика и пр. Една и съща информация всеки от нас ще получава по различен начин – този, който той би искал да звучи или да му бъде показан. А това означава, че вътрешните ни филтри за истинност много лесно ще бъдат преодолявани от манипулаторите. При това количеството на дезинформациите, които ще създават алгоритмите и ще се появяват в публичното пространство, ще е колосално – и да искаш, няма да можеш да се скриеш от тях…

http://i.dawn.com/primary/2015/01/54c8cc9d6529a.jpg?r=907350768

Но дали ние, простосмъртните, ще позволим други да ни лишават от свещеното ни право сами да се ориентираме и избираме, какво да харесваме и подкрепяме, на кого да се доверяваме, в крайна сметка зависи от самите нас. От това дали ще инвестираме ресурси – труд, време, пари, за неспиращо самообразование. Защото едно е да слушаме постоянно чалга и да си губим времето в социалните мрежи например, а съвсем друго е да предлагаме на сетивата си стойностна музика и добри книги. В първият случай ще трябва да се примирим с това, че заради липсата на хибридни знания и критично мислене ще ставаме лесна плячка за всевъзможни манипулатори. Докато във вторият вероятността ние, а не някой друг да ни определя приоритетите в живота, определено ще е несравнимо по-голяма.
Просто защото тогава филтрите, които ще изграждаме в главите си благодарение на знанията и интуицията ни, ще работят ефективно.
И напук на всевъзможни манипулатори.