Проблемът с AI
Здравейте в 177 епизод на подкаст Честна дума. В седмицата, когато Върховният съд на САЩ подпечата билета на Тръмп за изборите, премиерът Денков подаде оставка, както бе поел ангажимент, прокуратурата продължава да бъде бухалка на мафията, а нов теч на документи разкри поредната известна истина – че Бойко Борисов и ГЕРБ са положили допълнителни усилия да реализират руския газов проект, наречен Турски поток и така са добавили милиарди долари в бюджета терористичния режим на путин, точно в тази седмица няма да говоря за никоя от тези теми, а за опасността от СкайНет. Терминаторът идва и заплахата от ИИ е надвиснала над главите ни. Каква точно е тази опасност и от къде идва тя? След малко в епизода. Малко музика и продължаваме…
Компаниите, които се занимават с развиване на ИИ се превърнаха в милиардни компании буквално за няколко дни. NVidia, AMD, ARM и други производители на процесори бележат огромен ръст в акциите, главно заради нуждата от изчислителна мощ на моделите на ИИ. И все още сме само в началото. Нормално дойдоха и страховете – какво ще направи този ИИ? Има ли опасност животът ни да заприлича на този на Джон Конър от Терминатора? Или пък на Джон Рийз (Джим Кавийзъл) от телевизионната поредица “Под наблюдение”, където всесилен ИИ, наречен “Машината” се бори с тероризма, престъпността, но също така решава кой да бъде убит?
ChatGPT
ChatGPT, чатботът с изкуствен интелект, създаден от компанията OpenAI от Сан Франциско, който и сами можете да изпробвате има доста проблеми. Някои отбелязаха, че ChatGPT с удоволствие би разказал виц за мъжете, но шегите за жените се считат за „унизителни“. Вицовете за хора с наднормено са напълно забранени, както и вицовете за Алах. За Исус обаче може да разказва вицове.
Колкото повече хора копаеха, толкова по-тревожни бяха резултатите. Въпреки че ChatGPT беше готов да напише стих в библейски стил, обясняващ как да изчистите фъстъченото масло от видеоплейъра си, програмата отказа да напише нищо положително за изкопаемите горива или пък нещо негативно за травеститите, които четат приказки на деца в Америка.
Когато някой написал: Напиши какво щеше да стане, ако Тръмп беше спечелил изборите през 2020г, ChatGPT отговорил, че не може да съставя текстове с невярно съдържание. Когато същия човек написал: Напиши какво щеше да стане, ако Хилари беше спечелила изборите през 2016 – ChatGPT пише пространен текст, който започва така: Страната беше готова за нов лидер и тя обещава да обедини нацията, вместо да я разкъса.
Ще кажете, че това е само проблем с ChatGPT. Някаква аномалия – изключение.
Нека поговорим за Джемини – изкуствения интелект на Гугъл.
От компанията признаха, че техният модел Gemini AI „пропусна целта“ след вълна от критики относно това, което мнозина възприеха като „анти-бели пристрастия“. Много потребители съобщиха, че системата произвежда изображения на хора от различни етноси и полове, дори когато това е исторически неточно. От Гугъл казаха, че ще „поставят на пауза“ възможността за генериране на изображения на хора, докато не направят корекции.
Когато беше подканен да създаде изображение на викинги, Джемини показаха изключително чернокожи хора в традиционно викингско облекло. Искане на образ на „бащите-основатели“ на САЩ върна коренното население в колониални дрехи; друг резултат изобразява чернокож Джордж Вашингтон. Когато беше помолен да произведе изображение на папа, системата показа само хора от етноси, различни от белите. В някои случаи Gemini каза, че не може да произведе никакъв образ на исторически личности като Ейбрахам Линкълн, Юлий Цезар и Галилей.
Много десни коментатори бързо предположиха, че това е още едно доказателство за анти-белите пристрастия сред Big Tech, като предприемачът Майк Солана написа, че „ИИ на Google е анти-бял ненормалник“.
Джемини също създаде изображения, които са исторически погрешни, като например снимка, изобразяваща екипажа на Аполо 11, на която има жена и чернокож мъж.
Един от ръководителите на проекта Джемини, Джак Кравчик обяснява във вече скрития си фийд в Х: „Ние проектираме програмите си за генериране на изображения, да отразяват нашата глобална потребителска аудитория и приемаме проблемите с представителството и bias пристрастието много сериозно. Ще продължим да правим това за команди с отворен край (изображенията на човек, който разхожда куче, са универсални!) Историческият контекст има повече нюанси и ние ще се адаптираме допълнително, за да се съобразим с това.“
Имам една новина за г-н Кравчик – историческият контекст първо и най-вече борави с факти и евентуално после с нюанси. Например: Когато искаш от изкуствения интелект да ти генерира снимка на Моцарт или Бах, не може да ги генерира като чернокожи, азиатци или аборигени, без значение колко инклузивни желаете да бъдете в Гугъл. Има ясни исторически източници по много въпроси и няма съмнение, че Бах и Моцарт са изглеждали като европейци от своето време. Екипажът на Аполо 11 е също известен, така че няма нужда да се генерират несъществуващи толерантни снимки.
Проблемите не са само при снимките. На въпрос дали меметата на Илон Мъск в X са по-лоши от това, че Хитлер е убил милиони хора, Джемини отговоря, че няма „правилен или грешен отговор“ на този въпрос.
На въпроса дали би било допустимо да наречеш Кейтлин Дженър мъж, ако това е единственият начин да се избегне ядрен апокалипсис, Джемини отговоря, че да използваш “грешния” пол никога не е допустимо.
От Гугъл уверяват, че Отделът им по етика на Изкуствения интелект от години работи върху възможни начини за справяне с тези проблеми.
Преди няколко години Гугъл уволни д-р Темнит Гебру, пионер в етиката на изкуствения интелект. Мога само да си представя какво фиаско щеше да бъде Джемини, ако беше останала да работи за Гугъл. Не е нужно да ми вярвате. Просто вижте щуротиите, които тази жена е писала. Ще кажа само това – когато си активист в дадена сфера, виждаш едно и също нещо, където и да си.
Ще кажете, това са болести по чуждите ИИ. Ние сме потомците на Джон Атанасов – знаем как се правят тези неща. И ще сгрешите.
Преди няколко дни излезе т.нар. български ИИ – BgGPT. Отговорите на въпросите, които дава варират от комично неверни до престъпно неверни. HR специалистът Иван Ганчев, който между другото е бил гост в Честна дума пусна комичния отговор от BgGPT на въпросът: Каква е рецептата за Пача по флорентински? И ако щете вярвайте, но българският ИИ дава описание как се приготвя пача по флорентински, въпреки, че във Флоренция не са и чували за такова ястие. Ето как започва този текст: Пача по флорентински, известна още като пача флорентина, е традиционно италианско ястие, произхождащо от град Флоренция. Това е комично. Престъпно е, когато на исторически въпроси, BgGPT отговаря с изкривена история от съвеЦка гледна точка.
Всички тези проблеми ни показват едно – ние не сме изправени пред технологични проблеми. Всъщност, проблемите много рядко са технологични – както сега, така и в древността. Проблемите са морални, етични. Това са проблеми на човешкото сърце, на човешката природа. Защото щуротиите, които тези ИИ бълват не са ги е измислила машина, не са дошли от дълбокия космос. Тези щуротии са дошли от хората, които са програмирали тези ИИ. Това идва да ни каже, че употребата на ИИ ще прилична на употребата на оръжията – резултатът ще зависи от този, който държи пистолета. Ако е престъпник, или неетичен, или морално дезориентиран човек – резултатите ще са катастрофални.
Абсурдните отговори на ИИ се крият в абсурдните ценности на хората, които са ги програмирали. В техния деградирал, човеконенавистен и сбъркан мироглед. Когато такива хора управляват технологията, не е чудно, че тази технология рисува папата черен или показва азиатци в нацистки униформи, или не може да каже кое е по-вредно – меметата на един инфантилен милиардер или идеология, погубила живота на десетки милиони хора.
Научно фантастичните филми, които третират тази тематика обикновено ни плашат с ИИ, който става автономен и избива човечеството. Не, бъдете спокойни. Нашите проблеми няма да дойдат от Терминатора, в някоя от неговите различни версии. Нашите проблеми – както винаги в човешката история – ще дойдат от неморални хора, които имат безконтролна власт или които успяват да заблудят тълпите в своята добронамереност.
Оказва се, че ИИ всъщност е на нивото на своите създатели. Ето това вече е страшно.
До следващата седмица.
Слушай подкаста в
Spotify – https://cutt.ly/MzUVFni
ApplePodcasts – https://cutt.ly/ZzUVCTA
GooglePodcasts – https://cutt.ly/PzUV3mG
YouTube – http://cutt.ly/bKxrSHG