Предизвикателствата на изкуствения интелект
„Може да се предположи, че ще стават излишни все повече дейности и професии, за които винаги сме мислили, че в тях хората са незаменими. Журналистиката със сигурност ще попадне под натиск, тъй като изкуственият интелект създава стандартизирани текстове по-бързо и по-евтино от човешките редактори.“ Разговор с Юдит Зимон, професор по етика в информационните технологии
Германският Етичен съвет публикува през март 2023 г. становище „Човекът и машината – предизвикателствата на изкуствения интелект“, в което изследва въздействието на технологиите върху човешкото самосъзнание и общностното битие. Един от ключовите въпроси се отнася до етичната оценка: дали човешкото авторство и условията за отговорно действие ще се увеличат, или ще намалеят при употребата на изкуствен интелект. Етичният съвет разглежда четири основни сфери – медицина, училищно образование, обществена комуникация и публична администрация, и дава препоръки за всяка от тях. Той например препоръчва образованието да не се контролира от технологични визии, а да се основава на основополагащи представи и елементи, които развиват уменията и социалните взаимодействия на учениците, защитават тяхната лична сфера и насърчават личностното им развитие.
Юдит Зимон е професор по етика в информационните технологии, преподава в университета в Хамбург. Тя изследва етичните, епистемологичните и политическите въпроси в контекста на Big Data (големите данни), изкуствения интелект и дигитализацията. Член е на Германския етичен съвет и на други комисии от учени, които съветват политици, както и говорителка на работната група „Човекът и машината“. С нея разговаря Лиза Беринс от в. „Франкфуртер Рундшау“.
Каква е разликата между естествен и изкуствен интелект, къде минава границата?
На първо място, естественият и изкуственият интелект се различават по своята материалност: мозъкът е нещо различно от софтуера. Също така изкуственият интелект функционира различно от естествения: въпреки че и двата съхраняват и извикват информация, съответните процеси са различни. Но каква е същността на човешкия интелект и дали някога ще се появи така нареченият „силен изкуствен интелект“ – тук мненията се разделят.
Какво разбирате под „силен изкуствен интелект“?
В нашето становище ние разграничаваме тесен, по-широк и по-силен изкуствен интелект. Всички технологии, които днес виждаме, са пример за тесен изкуствен интелект. Това означава, че той симулира човешки интелект в различни области като логическо заключение или езикова продукция, показвайки отчасти впечатляващо качество. Широкият изкуствен интелект разширява значително спектъра или домейна на подобни постижения. Силният изкуствен интелект пък се дефинира по различни начини: някои казват, че съвършената симулация на всички компоненти на човешкия интелект вече е силен интелект. Други – като нас – свързват понятието с представата за изкуствен интелект, който не само симулира процеса на човешкото познание, а би притежавал също съзнание, разбиране или емоции. Някои отричат, че последното някога ще стане възможно, докато други казват, че това не може принципно да се изключи. Да вземем за пример ChatGPT, който междувременно създава съвсем различни видове текст с качество, което все повече ни затруднява да установим, че са произведени машинно, а не от човек. ChatGPT обаче не разбира значението на произведения текст, той се основава на чисто статистически словесни взаимовръзки и на анализ и производство на текстови модели. ChatGPT следователно не притежава нито разбиране, нито съзнание, макар на някои потребители да им изглежда така.
Как определяте съзнанието?
Съзнанието описва опита ни за света и за самите нас в света. С въпроса какво е съзнание човечеството се занимава от хиляди години и съответно няма единно определение за него.
Изкуственият интелект днес вече взима самостоятелни решения. Гледате ли на това критично?
Това е много важен въпрос в нашето становище. Ние делегираме все повече решения на машини. Можем ли да приемем тяхната работа като действие? Могат ли машините да носят отговорност? Стигнахме до заключението, че в тесен смисъл машините не могат да постъпват по един или друг начин и съответно да поемат отговорност. От друга страна, те могат да окажат огромно влияние върху възможностите за действие на хората, да ги разширят или ограничат. Ако искаме да решим как да оценим технологиите за изкуствен интелект или технологиите като цяло, трябва съвсем точно да проследим докъде води това делегиране на решения. Разширява ли се човешкото авторство в живота? За кого изкуственият интелект е предимство и за кого не? Ако например приложа инструмент за изкуствен интелект в областта на персонала, това може да увеличи възможностите за действие на един мениджър, ала да намали възможностите на кандидата за работа, защото той не отговаря на определен растер. Какво е много важно да подчертаем – решенията къде е добре да се използва изкуствен интелект могат да се вземат само според контекста и с внимание към самата техника, участващите и засегнатите лица, областта на прилагане, институционалната рамка и т.н. Общите препоръки могат да дадат първоначална ориентация, но не и да заместят детайлния и точен анализ.
Какъв ще е краят на това развитие? Ще се самоунищожи ли човешкият интелект чрез развитието на изкуствения?
Пълното заместване на човешките дейности от машини би било краят на упълномощаването на техниката. Това може да има огромни последици, не на последно място и за хората, които ще бъдат заместени от машини, но и за останалите засегнати. Ала от само себе си техниката не може да поеме нищо. Това е в ръцете на хората, които я използват за определени цели. Икономическите мотиви биха могли да доведат дотам задачи, които досега са изпълнявани от хората, относително лесно да бъдат прехвърлени на изкуствения интелект, защото той просто работи по-бързо и затова по-изгодно. От друга страна, изкуственият интелект се тренира с данни, които се създават и обработват от хора често при много трудни обстоятелства.
Много професии ще отпаднат?
Може да се предположи, че ще стават излишни все повече дейности и професии, за които винаги сме мислили, че в тях хората са незаменими. Журналистиката със сигурност ще попадне под натиск, тъй като изкуственият интелект създава стандартизирани текстове по-бързо и по-евтино от човешките редактори. Във всички области, в които роля играе известна стандартизация, в които се работи по определени схеми, изкуственият интелект променя играта: при проверката на договори, но и при създаването на културни продукти. Криминални филми, сериали – те използват определени модели. А изкуственият интелект е доста добър, когато репродуцира модели с леки вариации.
Петнайсет експерти от различни области са работили върху становището. Вероятно много сте спорили?
Понякога наистина спорехме много, но постигнахме консенсус почти по всичко, което е записано в становището. Има обаче някои точки, по които позициите останаха различни. Те са отбелязани.
Може ли дадете пример?
Да вземем например Classroom Analytics – по-точно въпроса дали искаме да използваме технологии, които регистрират вниманието и емоциите на учениците по време на час чрез видео запис. Трябва ли категорично да го отхвърлим, или има шанс да го приложим в бъдеще?
Видеонаблюдение в класната стая? Това звучи като дистопия. Наистина ли е мислимо в перспектива?
Тези технологии вече съществуват. Има софтуер за разпознаване на емоции, който е вграден в програми за видео чат и установява настроението посредством израза на лицето, или сензори, предназначени да проследяват вниманието. Това може да се приложи за мониторинг на живо в класната стая, както вече отчасти се случва в Китай. Въпросът е: искаме ли да предотвратим това в нашите класни стаи? Или ще кажем: възможно е в бъдеще това да донесе полза.
Каква би могла да бъде тя?
Някои твърдят, че това би могло да подобри учебния процес. Да се реагира на отслабващото внимание на учениците, да се променят скучните часове. От друга страна, има сериозни съмнения по отношение на личната сфера и независимостта на записваното лице. Има опасения и за сковаващ ефект, тоест отрицателно въздействие върху учениците, които знаят, че поведението им се анализира. По този начин може да се попречи на мотивацията, автономията и способността за действие, които са предпоставки за учене. Друга критика се отнася до това, че познанието за емоциите е поставено на съмнителни теоретични основи и софтуерът може да се окаже дискриминиращ поради систематични грешки.
Непрекъснато се спори доколко изкуственият интелект увеличава дискриминацията. Какви са вашите изводи?
Това е друг много важен въпрос: как да се предотврати възможността систематичните грешки (т.нар. biases) в изкуствения интелект да доведат до дискриминация. Така например при диагностицирането на рак изкуственият интелект може да помогне да се открият рано симптомите на болестта. Ако обаче изкуственият интелект е обучаван да разпознава рак предимно със снимки на светла кожа, тогава надеждността на инструмента при тъмна кожа може да е доста по-малка. Тези и други систематични грешки и причинената от тях дискриминация вече могат да се докажат при изкуствения интелект в доста области. Така много често в привидно неутрални системи се репродуцират обществени неравeнства.
Как може да се подходи към този проблем?
Трябва да се покаже как точно работи един изкуствен интелект, какви бази данни са използвани, какви слаби места има той. Трябва например да се разкрие как се стига до една медицинска диагноза, колко висока е съответно несигурността при нея. Дали например тя е по-сигурна при мъжете или при жените? Тогава трябва да има предупреждение: „Внимание, данните за вашия случай не са толкова много, затова резултатът е по-малко сигурен“.
В областта на медицината изкуственият интелект очевидно ще доведе до големи промени, впрочем и до възможността за психотерапия с изкуствен интелект.
Действително има голямо развитие – и това не е нова идея. Още през 1966 г. Джоузеф Вайзенбаум създава интерактивната компютърна програма „Елиза“, която симулира психотерапевт. Още оттогава съществува проблемът, че пациентите имат чувството, че разговарят с човек. Тук, разбира се, се появяват многобройни предизвикателства. Заблудата е едно от тях, но се поставят и въпроси за равния достъп до психотерапия. Поради огромния недостиг в психотерапевтичната област има голям натиск за разработване на такива технологии. И тогава можем да си зададем еретичния въпрос дали един чатбот не е по-добре от нищо. Не е тайна, че аз по-скоро бих насърчила разширяването на психотерапевтичната грижа.
Различаването на изкуствения интелект от човешкия ще става все по-трудно. Как можем да се справим с това в бъдеще?
Прозрачността и образованието са от съществено значение. От една страна, трябва ясно да се отбелязва, когато става дума за изкуствен интелект или негов продукт. Макар че това няма да попречи на някои хора да приписват на машината целенасоченост и съзнание – дори когато знаят как тя функционира. Като цяло трябва да се научим да общуваме с новите технологии, това ще е огромна задача. Тя започва с размисъла и дискусията и тук трябва да е приносът на нашето становище.
В него ChatGPT се споменава между другото. Изненадани ли сте от развитието му?
Основите на технологията не ни изненадват, те отдава са известни. Но не очаквахме, че този относително несъвършен инструмент ще бъде пуснат свободно на пазара и изведнъж милиони хора ще започнат да го използват. Когато ChatGPT се появи през ноември, бяхме почти готови с нашето становище. Въпреки това въпросите, които поставяме, се отнасят и за него.
Изкуственият интелект днес се развива стремително. Вече беше представен GPT-4, следващото поколение на програмата, която се използва за ChatGPT. GPT-4 разполага със сто милиарда изкуствени синапси и работи не само с текст, но и с образи. Как оценявате потенциала на GPT-4, ще се превърне ли той в следващия „голям удар“? И какво още ни очаква в близко време?
Това мултимодално съединение ще улесни редица нови приложения и ще активизира фундаментално и скоростно генерирането на текст, образи и видео в много области. Големият разрушителен потенциал на такива инструменти не е резултат единствено от тяхната употреба, а и от това, че са лесни за използване и получават екстремно разпространение: много хора могат без предварителни познания, светкавично и почти без усилие да създадат текстове, изображения и видеа, които изобщо не се различават от продуктите, произвеждани от хора. В това се крие голям потенциал, но и също толкова опасности. Тенденция в близкото бъдеще ще стане вграждането на GPT-4 и подобни мултимодални инструменти в роботи, за да се стимулира изследването и развитието на т.нар. „въплътен интелект“. Това означава, че ще бъдат добавени също движението и възприемането на пространството.
Превод от немски Людмила Димова
Коментари
За да добавите коментар трябва да се логнете тук