На 29 април СБЖ проведе дискусията „Медийната свобода и правата на журналистите – скачените съдове на демокрацията”, участниците в която направиха интересни и задълбочени изказвания по актуални аспекти на темата. На сайта на СБЖ ще бъде публикуван подробен репортаж от събитието, включващ всички изказвания. Сега предлагаме отделно експозето на проф. Маргарита Пешева, което повдига особено сериозен проблем за медийната и обществената среда и което предизвика оживен интерес по време на дискусията.
ЯВЛЕНИЕТО
"Лос Анджелис таймс" е първият вестник в света, който през 2014 г. публикува репортаж за заместресение в Калифорния, създадена без участие на човека– с помощта на алгоритъм. Журналистът и програмист Кен Скуенке успява да напише тази „новина" чрез алгоритъм едва за три минути, преди тя да се появи в Интернет и да обиколи света. Време, абсолютно немислимо за човека- журналист, който трябва да извърши редица операции, преди да напише горещата новина за това земетресение.
Според някои изчисления, ако за дадено време един репортер може да произведе 300 дописки, за същото време един алгоритъм/робот може да произведе 4400 дописки. Алгоритъмът–журналист може да произведе до 2000 новини в секунда- рекорд, немислим за което и да е човешко същество.
Ако през 2013г. алгоритмите са „написали” 350 милиона новини, през 2014 г. те са вече 1 милиард. Десетилетие по-късно, новините всекидневно генерирани от алгоритми са няколко милиарда годишно . Кристиан Хамънд, професор по компютърни науки и журналистика прогнозира, че до 2025г. 90% от новините в медиите ще бъдат компютърно генерирани. Което буквално означава - в утрешния ден.
РОБОТИЗАЦИЯТА
В Европа, Америка, Русия, Китай, Индия днес има редица медийни компании, в които алгоритмите са техните единствени служители. Проблемът е доколко всеобщата роботизация на журналистиката ще доведе до цялостна дехуманизация на тази професия?Мнозина изследователи са убедени, че това няма как да се случи, поне доколкото човекът-журналист има съзнание, а ИИ (в случая Chat GPT) притежава единствено софтуер. „Изкуственият интелект все още е ограничен, смята проф.д-р Елевер Щрайх Латер. Липсва му човешката изобретателност. Добрият журналист, ако има творческа нагласа,може да преодолее всички бариери, което го прави незаменим. Алберт Айнщайн казва, че най-големите открития са направени от хора, които не мислят рационално. ИИ мисли прекалено рационално, което е шанс за човека- журналист. Само човек може нестандартно да преструктурира събраният материал от ИИ. Роботът –журналист няма собствена социална или политическа позиция, която да отстоява, той не се бори за демокрация или против корупцията. Ако роботите се предпочитат пред човека, може да се стигне до непредвидими последици за обществото”.
ЧОВЕШКИЯТ МОЗЪК
Юдит Зимон, професор по етика в информационните технологии в Университета в Хамбург смята, че основната разлика между естествения и изкуствения интелект е в тяхната материалност - мозъкът е нещо различно от софтуера. В началото на годината Германският етичен съвет прие становище, в което дефинира тесен, широк и силен изкуствен интелект. Компютърните технологии днес са нагледен пример за тесен ИИ, който симулира човешкият интелект в различни области ( в журналистиката също) като логическо заключение или езикова продукция, показвайки впечатляващо качество. Широкият ИИ значително разширява спектъра/обхвата на подобни постижения. Силният ИИ е способен на съвършена симулация на всички компоненти на човешкия интелект. Което означава, че силен ИИ логически се свързва с представата за ИИ, който не само симулира процеса на човешкото познание, но подобно на човека, притежава съзнание, разбиране или емоции. Някои изследователи принципно отричат, че човечеството някога ще стигне до силен ИИ. Други обаче смятат, че този процес принципно не може да се изключи.
СТАНДАРТИТЕ НА АЛГОРИТМИТЕ
Днес вече никой не отрича, че Chat GPT-4 създава стандартни журналистически текстове много по-бързо и лесно, в сравнение с човека- редактор. В журналистиката и редица социални области, стандартизацията е водеща, работният процес най-често се основава на определени схеми и стереотипи, ИИ показва своето превъзходство пред човека най-вече като бързина за преглед и подредба на огромен масив от факти. Той е особено подходящ в сфери като разследваща журналистика, производство на криминални филми и сериали, които неизменно използват едни и същи модели. Всъщност ИИ се тренира с огромни бази данни, които в определени области, се основават на едни и същи модели. При репортажа от мястото на събитието, ролята на Chat GPT-4 вече е неоспорима. При бързата журналистика, която се опира основно на факти и данни, Chat GPT-4 е много ценен помощник. Но при бавната журналистика, която се отличава с дълги качествени разследвания и журналистически анализ, ролята на човека- журналист, все още, остава водеща. Разделителната линия между човека-журналист и Chat GPT-4 - в ролята му на журналист е съзнанието.
СЪЗНАНИЕТО
Чрез него homo sapiens трупа опит за явленията и процесите в света, за своето място в този свят. За разлика от човека- журналист, Chat GPT-4 създава различни видове текст, при които става все по-трудно е да се улови разликата с това, което човекът- журналист създава. Chat GPT-4 вече предлага генериране с висока скорост на текст, образи и видео в различни области, които не се различават от същите продукти, създавани от хора- в журналистиката, и в други социални области. Продуктите на ИИ са много лесни за използване, и те наистина получават огромно разпространение, което съдържа и някои големи опасности. Те се основават главно на дефицита на съзнание в действащия днес тесен ИИ, който, на този етап, показва някои опасни грешки в софтуера, които водят Chat GPT-4 до случаи на дискриминиращи практики и халюцинации.
ДИСКРИМИНАЦИОННИТЕ ПРАКТИКИ
ИИ допуска систематични грешки, в зависимост от базите данни, с които е трениран. Ако тези бази данни използват само светла кожа като илюстрация за диагностициране на рак на кожата, тогава тъмната кожа няма да се разпознава от ИИ като проблемна. Възможните липси или ограничения при базите данни, с които ИИ се „тренира” могат да възпроизведат някои обществени неравенства, което е твърде опасно.
ХАЛЮЦИНАЦИИТЕ
Напоследък в научни публикации, медии и сайтове активно се обсъжда въпроса за халюцинациите на ИИ. Което означава, че ИИ в отделни случаи предлага на потребителя информация, която е изцяло измислена, не съществува в реалния живот. Chat GPT-4 в някои разработки си служи с несъществуващи източници и цитати. Той може да цитира истинско журналистическо издание, в което обаче няма такава статия или автор. Например в Експертиза на ИИ по съдебен казус се „цитират” съдебни дела и казуси, които де факто не съществуват в съдебната практика. Генераторите на изкуство с ИИ понякога са склонни да „променят” човешката анатомия, и да „рисуват” човешките крайници с множество пръсти.
Вече съществуват многобройни сайтове с ниско качество, т.нар. ферми за съдържание, които се управляват автоматично, и предлагат съдържание, създадено чрез алгоритми. Те печелят от реклами, които автоматично създават и разпространяват чрез алгоритми. В началото на тази година, в такъв нискокачествен сайт е публикувана статия със заглавие: „Байдън е мъртъв, Харис става изпълняващ длъжността президент, обръщение в 9ч.”.Става дума за американския президент Джо Байдън и неговия вицепрезидент Камала Харис. Друг сайт публикува невярна новина за смъртта на хиляди войници в Украйна, като посочва видео в You Tube. Трети сайт публикува неверни данни за живота и работата на архитект в неговия некролог.
Някои изследователи обръщат внимание, че човекът-журналист винаги може да каже „не знам”, но за съжаление, засега е много трудно да накараш ИИ да признае, че не знае. При дефицит на информация, Chat GPT-4 започва активно да измисля и фалшифицира фактите.
Халюцинациите на ИИ са последица от моделите и начините, по които той се обучава-най-често чрез съдържание, взето от Интернет. ИИ се основава на базите данни, с които е „захранен”, поради което дава отговор, който съответства на неговия „лимит от факти”, открити в Мрежата. Халюцинациите на ИИ са тревожен симптом, който може да доведе до големи опасности в различни социални области. Учените най-често посочват - самоуправляващите се превозни средства, журналистиката, медицинската диагностика. Кровиц, издателят на в. Wall Street Journal казва следното: ”Използването на ИИ модели, известни с измислянето на факти за създаването на това, което само изглежда като новинарски сайтове, е измама, маскирана като журналистика”.
УЕБ КАПАНИТЕ ЗА УМА
AI-алгоритмите създават своеобразни капани за ума на уеб потребителите, те ги насърчават да четат основно съдържание, което отговаря на техните възгледи за живота, политиката, обществото и др.(вж. Светослав Димитров https//www.kaldata.com ). В статията се цитира изследване на група учени, ръководени от професор Йънг Ли от университета Цинхуа (КНР). Тяхната работа е публикувана в списанието Nature Machine Intelligence.
Изследователите проучват как се образуват така наречените „информационни пашкули”, в които потребителите се срещат единствено с мнения или потребители, които преповтарят техните собствени възгледи. Това явление се оказва сериозен риск за развитието на критичното мислене при човешката популация. Учените обръщат внимание на обстоятелството, че широкото внедряване на алгоритмите, управлявани от ИИ създава нови предизвикателства именно по отношение на критичното мислене нва човека.
„Например, намаляване на влиянието на идеологическите различни новини, мнения, политически възгледи и приятели. Такава технология изолира хората от разнообразната информация и в крайна сметка ги „заключва в една тема или гледна точка“.
Според китайските учени, този процес може да има сериозни отрицателни последици, тъй като „такива пашкули могат да увеличат предразсъдъците и поляризацията в обществото, да възпрепятстват личното израстване, креативността и иновациите, да увеличат дезинформацията и да възпрепятстват усилията за създаване на по-приобщаващ свят… Концепцията за информационни пашкули е възприета, за да опише широко наблюдавания феномен, че с нарастващото взаимодействие с интелигентните алгоритми хората се изолират от разнообразната информация, и в крайна сметка остават в капана на една тема или гледна точка“- подчертават учените.
Те обръщат внимание и на обстоятелството, че не е съвсем честно да се обвиняват AI-алгоритмите или конкретно хората, тъй като такива информационни пашкули по принцип възникват от сложните взаимодействия и обмен на информация между различните субекти.
Светослав Димитров посочва, че подобни взаимодействия в работата на учените могат да се разделят на четири компонента:
„Учените смятат – казва Димитров, че стабилните информационни пашкули се образуват, когато има дисбаланс между положителната и отрицателната обратна връзка, а също и когато подборът, основан на сходство, непрекъснато се увеличава”. За да бъде избегнат този капан на ума, учените препоръчват не само да харесвате, но и да реагирате на съдържанието, което не ви харесва, за да могат алгоритмите да изградят една по-обективна картина. Те насърчават потребителите на мрежата много по-често да правят и самоизследване, тъй като преглеждането на нова информация сериозно ще повлияе върху бъдещите препоръки от страна на алгоритмите.
РЕГУЛАЦИИТЕ
През март 2023г. Илън Мъск, Стив Возняк и над 1000 водещи експерти по ИИ и представители на ИТ индустрията в Отворено писмо призоваха за шест месеца мораториум върху обучението на системи за ИИ, поради потенциални рискове за обществото.В писмото се подчертава, че мощните системи за ИИ трябва да се разработват само след като човечеството се увери в положителните последици от тези разработки, и в обстоятелството, че свързаните с тях рискове са управляеми. ”Обширни изследвания показват, че подобни системи с изкуствен интелект, които се конкурират с хората, могат да представляват сериозна опасност за цялото човечество” - се казва в писмото. Но развитието на ИИ въобще не беше поставено на „пауза”. А възможните регулации, свързани с приемането от ЕК на Закон за ИИ тревожно закъсняват. ИИ навлиза в целия живот на човека със скоростта на светлината.
Copyright © 2022 Съюз на българските журналисти. Изработка ApplaDesign.