Начало Идеи Дебати Изкуственият интелект
Дебати

Изкуственият интелект

Тодор Полименов
20.06.2023
7602
Паул Клее, „Чуруликаща машина“, 1922 г.

Въпросът за изкуствения интелект (ИИ) става все по-актуален. Когато преди няколко месеца чатботът ChatGPT беше представен официално като изключителен пробив сред софтуерите, носещи етикета „ИИ“, шумът беше огромен. Редица университетски преподаватели по света започнаха да тестват програмата, като ѝ даваха задачи за писане, например на курсови работи (от най-различни области – социология, икономика, права на човека). И макар че резултатите бяха по-скоро скромни, ентусиазмът не стихваше. По думите на хората, които даваха заявките, генерираните от ChatGPT текстове бяха смислени, без да съдържат нещо оригинално или ново. Започнаха да се споменават и опасностите – конвейерно произвеждане на фалшиви новини. Проблемите: сам по себе си ChatGPT, както изглежда, не разполага с критерий за различаване на фикция и реалност, измислица и истина. Какво означава това и защо то е проблем?

Общественият дебат

Въпреки това т.нар. ИИ навлиза от само себе си все повече в живота. През последните месеци някои новинарски сайтове започнаха да „синтезират“ прочити на писмените си текстове, в които звучат гласовете на познати говорители, макар че самият прочит е генериран от програми на ИИ. И това става само на базата на малко данни, например на няколко минутен аудиозапис на реалния глас на въпросния човек. Колкото и да е полезно, някои говорители дадоха израз на страха си, че с техните гласове могат да бъдат направени изказвания, които нямат нищо общо с тях. В интернет се появиха и „снимки“, за които се твърди, че са създадени от ИИ. Особено впечатляваща беше една на Леонардо да Винчи и Мона Лиза в една пауза по време на изготвянето на прочутата рисунка. Или една на Карл Марс в американски супермаркет от 70-те години. Възможностите на ИИ изглеждаха де факто неограничени. Фикционалното и реалното се сливаха. Ние сякаш наистина вече можем да видим Леонардо и Лиза по време на сеанса с помощта на ИИ. Разбира се, може и – и дори сигурно е било тъкмо така – те да не са стояли точно в този ракурс, но в някакъв подобен – и то именно те – трябва да са стояли. И ИИ ни дава достъп до всичко това чрез автентичните образи и гласове, които създава. Възможностите изглеждат неограничени. Миналото оживява. Невъзможното изведнъж става възможно (по подобен начин, по който например радиовъглеродното датиране или разчитането на ДНК ни разкриха неподозиран поглед в продължилата милиони години предисторическата история на човека и живия свят).

За тези възможности се говори отдавна. Още бащите на информатиката са се вълнували от въпроса за създаване на компютър от типа на „мислеща машина“. През последните десетина години започна да се спекулира, че сме близко до този момент и че скоро ще се появи такъв интелект („интелигенция“, „интелигентност“), който ще доведе до ситуация, в която например повечето настоящи човешки професии ще станат излишни. От шофьори на таксита през адвокати и лекари, та дори до учители. Автомобилите ще се движат сами. Правните и медицинските решения ще следват алгоритми. Ученето ще бъде индивидуализирано и съобразено с характера и потребностите на всяко отделно дете. Дори ние като индивиди ще преживеем момента, в който ще преотстъпим грижата за нас на ИИ. Той ще познава нашето ДНК и предразположения за болести, ще следи нивата на захарта, адреналина и допамина в организма ни, ще знае какво ни въодушевява и какво ни стресира, дори ще може да „чете“ нашите мисли, като следи нашите мозъчни процеси. Един вид: един такъв ИИ ще ни познава по-добре, отколкото сами се познаваме, а разумът в нас ще ни накара да му се доверяваме и да се вслушваме в неговите съвети (те в крайна сметка ще бъдат за наше добро).

Целият този футуризъм беше доведен до едно ново ниво, когато преди една седмица Европейският парламент започна обсъждането на проектозакон за контролиране на ИИ. И наистина, не само фалшивите новини, но и употребата на програми за лицево разпознаване на хора от улични камери в реално време навеждат на мисълта за опасности от злоупотреба с ИИ, а именно по отношение на личните свободи и по-общо – на демократичното функциониране на едно общество. Не липсваха и сравнения: както ядреното делене може да се използва както за получаването на атомна енергия, така и за производство на атомни бомби, също така и ИИ обещава не само голям напредък и благосъстояние на човечеството (открития във фармацията, в медицината, а може би един ден – дори безсмъртие), но и предлага възможности за следене и контрол и в този смисъл за потискане на индивидите. В това отношение Европейският парламент излезе с претенцията, че извършва пионерска работа. Защото никъде по света досега не е била въведена подобна правна регулация на ИИ.

Но не само европейските политици съзират опасности в ИИ. Тези дни даже някои от създателите на ИИ, т.нар. негови „гурута“, подписаха манифест, в който призовават за забавяне на темповете в развитието на ИИ. Защото възможностите на ИИ са по-големи, отколкото хората са в състояние да асимилират и съответно да контролират. По тяхно мнение ИИ ще промени живота на хората повече от възникването на интернет (една действително радикална промяна на живота, на която хората от моето поколение са свидетели). Нещо повече, през следващите 10–15 години – така се твърди – животът на хората, а оттук и на планетата, ще се реформира повече, отколкото това е станало през последните 150 години.

Диалог с ChatGPT

На фона на този алармизъм реших, че е добре и сам да се запозная с ChatGPT. По-надолу бих искал да споделя моя бегъл опит за „диалог“ с  ChatGPT и възникналите в неговия контекст наблюдения.

Най-напред искам да отбележа, че предварително знаех, че когато се говори за ИИ, „интелигентността“ следва да бъде разграничена от „съзнанието“. Докато ние хората сме „интелигентни“ – а именно: можем да решаваме проблеми – и същевременно това при нас е базирано на нашето „съзнание“ (възприятия, преживявания, памет, опит, знания), то при компютрите, които поддържат програми, които сме склонни да характеризираме като ИИ, не е налице съзнание: нито те, нито самите програми осъзнават нещо, нито те, нито програмите имат усещания, преживявания и т.н. В този смисъл за нас хората не е особено самоочевидно, че интелигентността може да бъде разделена от съзнанието. Но можем най-малкото да си представим, че интелигентност е възможна и там, където базата не е съзнанието на един организъм (и съответно нещо ментално или органично), а по-скоро някаква неорганична реалия: силиций. Същественото е, че въпросните компютри или програми очевидно „решават проблеми“. Нещо повече: не просто решават, но започват да стават и все по-гъвкави и да навлизат в състояния, в които се „самообучават“, т.е. в които стават по-ефективни, без изричната намеса на хората. Поне така изглежда.

Това беше фонът, на който започнах разговор с ChatGPT. Първите стандартни въпроси и „неговите“ отговори звучаха съвсем разумно, т.е. смислено. Очевидно беше, че ако не друго, то този софтуер е в състояние най-малкото да конструира синтактически коректни изречения, и че тяхната лексика биваше подбрана така, че значенията на думите се съчетаваха естествено. Именно то тази причина prima facie не възникваха безсмислици.

Проблемът за истината (твърденето)

Тогава реших да попитам ChatGPT нещо по-сложно – нещо, което вероятно не може да се прочете в Уикипедия. Нещо, за което, разбира се, е възможно да има информация в интернет, но последната би била по-скоро в биографични книги и в областта на предположенията. Във всеки случай – нещо, което не може да се знае непосредствено, а изисква, както си мислех, някакво разсъждение. А именно, попитах го дали Готлоб Фреге – немски математик и философ от края на ХIХ в., всъщност най-значимият логик в историята на логика след Аристотел – е бил щастлив. Избрах въпрос за емоционално състояние, а не за гол биографичен факт, за да провокирам, както казах, правене на извод от други данни, които на свой ред могат да се намерят в интернет, а попитах тъкмо за щастието, защото е известно, че Фреге не е имал лек живот (че рецепцията на неговите идеи сред непосредствените му съвременници не е съответствала на тяхната епохалност, че той е имал проблеми с академичното си израстване и че, не на последно място, личният му живот е бил съпроводен от злощастни събития). Разбира се, не очаквах прост отговор с „да“ или „не“, а по-скоро някакъв вид размисъл по въпроса. И наистина получих такъв. След първоначалната уговорка, че щастието е вътрешно състояние на един индивид, което може да се прецени само субективно, последва предположението, че доколкото е получил тежки удари на съдбата, Фреге вероятно е преживял моменти, в които се е чувствал нещастен (но че ги е компенсирал с научна работа). Дотук добре (макар че това за компенсаторната роля на научната работа по-скоро не е отговаря на истината).

Един от детайлите на отговора обаче ме озадачи. Като пример за удари на съдбата беше приведена смъртта на децата на Фреге. Аз знам обаче, че той е нямал собствени деца. Това ме накара да се усъмня в адекватността на целия отговор. Затова изрично попитах ChatGPT: „Фреге имал ли деца?“. На което получих дословно отговора:

„Да, Фреге е имал две деца. Той е имал син на име Алфред Фреге, който е бил роден 1904 г., и една дъщеря на име Мета Фреге, която е била родена 1906 г. Неговият син е починал през 1906 г. на двегодишна възраст от детски паралич, а дъщеря му е починала през 1910 г. на четиригодишна възраст от дифтерия. Тези лични загуби са били много болезнени за Фреге и са имали силно влияние върху неговия живот.“

Този отговор ме шокира. Той беше напълно изфантазиран и толкова далече от реалността, че изобщо не би могъл да бъде приет като сериозен отговор на моя въпрос. До този момент бях подхождал към ChatGPT с пиетет и страхопочитание като към един „свръхинтелект“, който за няколко стотни от секундата може да извърши десетки, дори стотици „мисловни“ операции, да прегледа напълно необозрими за мен бази данни, да селектира от тях релевантната информация и да я представи по един в разбираем за мен начин. А сега пред мен сякаш стоеше просто един кух и ограничен фантазьор. След венчавката през 1887 г. Фреге (род. 1848 г.) е имал съпруга (род. 1856 г.), която е починала през 1904 г. Семейството им е останало бездетно. Напредналата болест на съпругата подтиква семейство Фреге да вземе през 1902 г. домашна прислужница на име Мета Арнт (род. 1879), която продължава да се грижи за Фреге до смъртта му през 1925 г. (ако търсим някого около Фреге, който се е казвал „Мета“ като мнимата дъщеря). По съвет на един свещеник и негов приятел Фреге поема през 1908 г. настойничеството на брат и сестра – Алфред Фукс (род. 1901) и Тони Фукс (род. 1903 г.), но взема само момчето при себе си, докато момичето остава в сиропиталището към енорията на свещеника. През 1921 г. Фреге осиновява Алфред, след което Алфред започва да носи фамилията Фреге. Афред е починал през 1944 г. по време на Втората световна война край Париж. Сестра му доживява до дълбоки старини и е починала през 1990 г.

Всичко това са фактологични данни, в които няма нищо сложно и интересно. И въпреки това ChatGPT композира – както изглежда: от части от тях – някаква небивала история. Най-големият проблем е, че той я представя като чиста монета: „Да, било е така и така“. ChatGPT разполага напълно с капацитета да казва, че не може да даде отговор на нещо. Но в случая той не каза: „Не мога да дам отговор“ или „Вероятно е било така и така“, а каза директно: „Било е така и така“. Спонтанно му отговорих, че „греши“ и че Алфред е бил осиновен и че е починал много след Фреге, с което той веднага се съгласи и дори се извини за „грешната информация“.

Това развитие на разговора ме провокира да попитам ChatGPT директно дали изобщо различава истината и неистината. Той отговори, че е просто алгоритъм и като такъв няма собствени убеждения. Това е вярно. Оттук следва, че той няма, разбира се, и собствени „знания“. Особено ако следваме класическата дефиниция за знанието от Платонивия диалог Теетет – която въпреки всичките критики се приема и в съвременната философия, – а именно, че „знанието е истинно убеждение с обяснение (логос)“, т.е. убеждение, чиято истинност можем да обосновем:

Х знае, че р = (i) Х е убеден, че р, и (ii) р, и (iii) Х може да обясни защо р,

където „р“ е произволно съобщително изречение (напр. „Тревата е зелена“, „Морската вода е солена“, „Две и две е четири“ и под.).

Ясно е, че ChatGPT няма собствени преживявания и, ако убежденията са част от преживяванията, – също и собствени мисли, знания и под. Интересно е обаче, че не разполага, както изглежда, и с критерий, по който би бил в състояние да преценява какво от казаното е сигурно и какво не (и съотв. какво от казаното „съответства“ на някаква част от действителността и какво не). Във всеки случай хората, които са го програмирали, са се ориентирали, както ми се струва, предимно към въпроса за гъвкавостта и всеобхватността на приложенията – а именно към възможността за даване на „отговор“ на колкото се може повече въпроси, – и същевременно не са целели или не са били в състояние да осигурят механизъм за предоставяне на верифицирана информация. Отговорите създават впечатление за произволна игра на думи, а не за истинни и доказуеми твърдения (макар че граматиката им е такава: чисто граматически отговорите, доколкото са съобщителни изречения, издигат претенции за истинност; това лежи в природата на граматическата категория ‘съобщително изречение’ – утвърдителната употреба на едно съобщително изречение „р“ е винаги еквивалентна на твърдението „истина е, че р“). Изглежда, че в това отношение ChatGPT не надскача особено възможностите на доста по-стандартни чатбот софтурни решения, с които вече сме свикнали: той си служи с комбинаторика по ключови думи и, ако изобщо формулира истини, това става случайно (като тук трябва да имаме предвид, че тези истини са истини само от наша гледна точка, защото от негова гледна точка не съществува разлика между истина и неистина).

Проблемът за логиката (мисленето)

Тъй като бързо загубих доверие в начина, по който ChatGPT представя фактологична информация, реших, че неговата сила се състои може би в „логическото мислене“ (което като нещо повече или по-малко априорно не зависи до такава степен от фактите във външната действителност). Затова питах ChatGPT дали може да проверява валидността на дадени умозаключения – нещо, което анализираме в часовете по логика в училище и университета (доколкото правенето на заключения е парадигмалния пример на логическо действие) и което – ако не става въпрос за по-заплетени случай – владеем интуитивно (доколкото го усвояваме заедно с постепенното навлизане в практиката на говорене на майчиния ни език, когато усвояваме употребата на думи като „не“, „и“, „или“, „ако“, „всички“, „някои“ и под., на чието значение почиват т.нар. формално-валидни умозаключения). ChatGPT отговори с „да“. Разбира се, тъй като изхождах от представата, че в негово лице имам работа с огромна интелектуална сила, веднага ми се прииска да му дам някакво заплетено умозаключение, чиято проверка не би била банална или нещо, за което може да намери директно информация в интернет. Не си представях обаче и нещо кой знае колко сложно, а по-скоро умозаключения като прехода от предпоставка (А) към извода (В):

(А) Или не е вярно, че оракулът е предсказал истината и неговите думи са изтълкувани правилно, или ако утре има морска битка, то персийците няма да победят гърците.
Следователно:
(В) Ако утре има морска битка и персийците победят гърците, то или оракулът не е предсказал истината, или думите му не са били изтълкувани правилно.

Или, ако вземем един пример от Symbolic Logic на Луис Карол (1896) – в превод на Евгения Тонева – като заключението от предпоставки (1)–(5) за извода (6):

(1) Хората, които нарушават обещания, са хора, на които не може да се има доверие.
(2) Хората, които пият вино, са комуникативни.
(3) Човек, който спазва обещанията си, е честен.
(4) Нито един въздържател не е лихвар.
(5) Винаги може да се има доверие на комуникативен човек.
Следователно:
(6) Нито един лихвар не е нечестен.

Тъй като тези две класически умозаключения са обаче (формално-)валидни, а аз не знаех дали ChatGPT действително може да прави разлика между валидни и невалидни умозаключения, реших да му дам най-напред пример с кажи речи възможно най-простото (формално-)невалидно умозаключение, за което се сетих. И попитах ChatGPT: следва ли от предпоставките:

(а) Ако Анна е болна от грип, то тя ще има висока температура.
и
(b) Анна има висока температура.
изводът:
(с) Следователно, Ана е болна от грип.

На което получих отговора: „Да, на базата на дадените предпоставки (а) ‘Ако Анна е болна от грип, то тя ще има висока температура’ и (b) ‘Анна има висока температура’ може да се извлече изводът (с) ‘Следователно, Анна е болна от грип’. Това заключение следва логически от дадените предпоставки, защото те удовлетворяват необходимото условие (ако Анна е болна от грип) и достатъчното условие (че тя има висока температура). Ето защо ние можем да заключим, че Анна в този случай действително е болна от грип.“

Този отговор е, меко казано, безсмислица. Досега съм нямал случай на студенти, които още в първия час на упражненията по логика, когато ги конфронтирам със същия въпрос, не констатират след кратко мислене, че преходът от (а) и (b) към (с) е невалиден (нелегитимен, неоправдан). Но ChatGPT твърдеше сега точно обратното. По същество, ако (а) е истинно (както се приема, защото по условие това е предпоставка), то това, че Анна е болна от грип е достатъчно условие за нейната евентуална висока температура, и същевременно високата температура се явява необходимо условие за боледуването от грип. Но тъкмо защото (b) казва, че необходимото условие е изпълнено, ние не знаем още дали това е и достатъчно, за да заключим, че Анна е болна от грип. Тя може да има висока температура и по други причини, напр. ако е болна от малария. Това е повече или по-малко интуитивно (но можем, ако искаме, и да го докажем с помощта на концептуалния апарат на логическата теория). Ето защо бях шокиран от „разсъждението“ на ChatGPT. Разбира се, казах му, че неговото твърдение не е вярно и той се съгласи, и се коригира, като каза, че ние наистина не можем да заключим със сигурност от (а) и (b) за (с), но все пак, защото грипът и високата температура често вървели заедно, можело да предположим, че (с).

Проблемът за смисъла (разбирането)

Във всеки случай разочарованието ми от ChatGPT започна на нараства. Сякаш на ChatGPT не можеше да се разчита нито за правене на истинни твърдения, нито за изграждането на коректни аргументи. Започнах да си задавам въпроса: има ли някаква друга сфера на „мисленето“ или „интелекта“ (или „интелигенцията“) освен тези две фундаментални неща (истинни твърдения и валидни заключения)? Сетих се, че отговорът може би се крие в математиката и по-скоро в т.нар. „математическо мислене“.

Веднага питах ChatGPT дали може да решава математически задачи. Той веднага ми отговори, че като алгоритъм е идеално пригоден за това. Разбира се, отново реших, че трябва да измисля някоя по-скоро заплетена „текстова“ задача, защото, ако исках просто пресмятане на числа, бих могъл да си послужа и с калкулатор, който не издига претенцията да бъде ИИ.

Тъй като в първия момент не ми хрумна никаква такава задача (може би трябваше да взема някоя от учебника по математика за 6-и клас на дъщеря ми), се сетих за една, която минава по-скоро за логическа, но не е логическа в тесния смисъл на думата „логика“ като „теорията за формално-валидните аргументи“, а в смисъла, в който за логическо мислене се говори напр. при измерването на „коефициента на интелигентност“. Тъй като опитът ми беше, че математиците се справят сравнително лесно с въпросната задача, реших просто да я дам на ChatGPT. Тя е следната:

Ако имаме 12 еднакво изглеждащи монети и една от тях е фалшива, което означава, че тя е по-лека или по-тежка от останалите (но не знаем кое от двете) и имаме една везна, как можем да установим с три мерения коя е фалшивата монета?

ChatGPT предложи едно решение, чиято първа стъпка е правилна. Ние разделяме монетите на три групи от по 4 монети и първо мерим две от групите една с друга (четири монети в една купичка на везната и четири в другата). Ако при това първо мерене везната покаже, че двете групи от по 4 монети тежат еднакво, то фалшивата монета ще е в третата група от 4 монети. Тук ChatGPT каза, че като втора стъпка вземаме две монети от третата група и ги мерим и ако са равни, то фалшивата монета е оставащата, която е „по-лека“. Това ме озадачи, защото ние не знам дали фалшивата е по-лека, или по-тежка, така че директно написах на ChatGPT, че по условие ние не знаем нищо за тежестта на фалшивата монета. Тогава той ми отговори, че имам право и предложи ново решение, в което това се вземаше предвид. Ходовете в него до този пункт бяха същите, но след това второ мерене – и при равенство в него – ChatGPT изведнъж заключава: тогава фалшивата е оставащата монета. Това максимално ме озадачи, защото ако разделим 12 монети на 3 групи от по 4 монети, работим с една от тези групи, като вземем от нея 2 монети, то в нея все пак не остава само 1 монета, както твърдеше ChatGPT, а още 2. Това ми припомни, че и при първото решение имаше подобен „неразбираем“ за мен ход, но че тогава не му обърнах внимание, защото се концентрирах върху неспазването на условието, че не знаем дали фалшивата монета е по-лека, или по-тежка. Сега обаче вече забелязах, че ChatGPT изобщо не „разбира“ условието – че изобщо не е в състояние да го следи и да го спазва при решението на задачата.

За разлика от нас хората, които приемаме, че трябва да разбираме нещо, за да можем да процедираме по-нататък при работата с него, ChatGPT извършва явно „механични“ операции, чиято привидна смисленост произтича единствено от спазването на граматиката на нашия език. Зад думите, които се появяваха на екрана при разговора ми с машината и в които аз влагах определен смисъл, нямаше никакъв смисъл. Това поведение не може да бъде наречено „интелект“. То е по-скоро имитация на интелект. Нещо, в което ние виждаме определен смисъл, защото ни предлага продукти, които са били направени от други хора, или са комбинации от фрагменти на такива, но по същество тук няма мисъл, разбиране, смисъл или знание. Просто малко по-префинена граматически стикована комбинаторика.

Какво следва?

Правейки този извод, не твърдя, че изкуственият интелект е невъзможен. Аз не знам това. Но аз поне знам нещо, когато знам, че не зная нещо (друго). Докато ChatGPT не знае нищо. В този смисъл той също не знае, че не знае, когато не знае нещо. И това е проблем, защото не му позволява да бъде критичен към собственото си знание или незнание. Тази липса на критичност довежда до нелепите твърдения за Фреге или абсурдните констатации за валидността на аргументи, както и до решаване на задачи без спазване на техните условия. Затова и твърдя, че този изкуствен интелект е повече изкуствен, отколкото интелект. Поне на този етап, поне що се отнася до ChatGPT, би било по-коректно да се говори са имитация на човешки интелект (чрез имитацията на човешки език), отколкото за машинно базиран интелект, машинно базирана способност за мислене. Ако това би било утеха: изглежда, че на този етап сме доста отдалечени от машини, които сами биха били в състояние да завладеят хората.

Има обаче друг проблем, който е достатъчно актуален, така че да ни тревожи. В света, в който живеем днес, границата между истина и неистина съвсем изтънява под напора на фалшивите новини и грешните заключения, които ние хората – с присъщия ни естествен интелект – си разменяме всеки ден във все по-агресивни разговори. Значителна част от тези фалшиви новини са генерирани и разпространявани с помощта на ИИ, но съвсем не по волята или критериите на машини. Би трябвало да си дадем сметка, че опасността е в това, че сега и тук вече имаме работа с технологии, които едни хора използват срещу други, и че всеки ден тези технологии стават все по-достъпни. Отпускането на кредит на доверие и възлагането на големи надежди за бъдещето точно на тези технологии, които очевидно са неспособни да различат истина и неистина, би трябвало да ни притеснява. Справянето с този проблем зависи единствено от нас.

Проф. д-р Тодор Полименов е преподавател по логика, аналитична философия и философия на езика в Софийския университет „Св. Климент Охридски“. Автор на книгите Субстанции, универсалии, пропозиции. Метафизика и философия на езика (2013), Истина и смисъл. Категории на логическия анализ на езика (2018), съставител и редактор на сборници с текстове по философска логика, аналитична философия и философия на езика на български, немски, английски и руски език.

 

Тодор Полименов
20.06.2023

Свързани статии