Илон Маск позива на паузу у развоју вештачке интелигенције због „ризика по друштво“

Отворено писмо института „Будућност живота“, које је потписало више од хиљаду људи укључујући Маска, позива на паузу у развоју вештачке интелигенције док независни стручњаци не донесу безбедносне протоколе

Фото: Омељченко/Шатерсток

Илон Маск и група стручњака за вештачку интелигенцију (АИ) позивају на шестомесечну паузу у развоју система моћнијих од недавно покренутог ГПТ-4. Они упозоравају на могуће ризике по друштво и човечанство.

Компанија ОпенАИ је раније овог месеца у сарадњи с Мајкрософтом објавила четврту верзију програма ГПТ-а (Generative Pre-trained Transformer) која је освојила кориснике због широких могућности употребе, од компоновања песама до сажимања дугачких текстова.

Отворено писмо, које је објавио непрофитни институт „Будућност живота“, и потписало више од хиљаду људи укључујући Маска, позива на паузу у развоју напредних вештачких интелигенција све док независни стручњаци не донесу безбедносне протоколе.

САД: Компанија „Клирвју АИ“ објавила je да скупља фотографије лица готово свих људи на свету

„Моћне системе вештачке интелигенције требало би развијати тек када будемо сигурни да ће њихови ефекти бити корисни и да ће се ризицима моћи управљати“, пише у писму.

Аутори указују на ризике у виду економских и политичких поремећаја и позивају програмере да сарађују с властима и регулаторним телима.

Њихова забринутост подудара се с упозорењем Европола који је у понедељак указао на бројне етичке и легалне проблеме које је донео ЧетГПТ, а тичу се могуће злоупотребе за сајбер нападе, ширење дезинформација и сајберкриминал.

Опрема: Стање ствари

(N1/НСПМ, 29. 3. 2023)



Categories: Вести над вестима

Tags: ,

4 replies

  1. Ових дана је на мене врло јак утисак оставио клип назван, рецимо “Амерички председници дискутују о Јустинијану Великом”. Актери су Бајден, Обама и Трамп, споредне улоге припадају брачном пару Клинтон и Бушу Млађем. Тонски запис настао је захваљујући вештачкој интелигенцији и, ко није свестан о чему се ради, комотно би могао да закључи да је Јустинијан заиста био тема неког панела са побројаним учесницима. За 20 година би се на основу тога могло тврдити да је та расправа збиља и одржана. Орвелу би .се то много допало (парафраза: “за 100 година ће постојање друга Огилвија бити засновано на истим доказима као постојање Александра Великог”). Фасцинантно.

  2. Ova prica u medijima da je vestacka inteligencija (VI) postatala toliko mocna, i da ako se ne zaustavi privremeno njen razvoj, ona ce moci da porobi i unisti covecanstvo. To je jos jedna propagandna kampanja zapadne duboke drzave, koja je sracunata na to da zastrasi i protivnike i podanike. VI nece nikada postati kompletno autonomna (mora stalno da se koriguje od strane ljudi), i ne moze zavladati svetom, sto je sasvim jasno ljudima koji veruju u Boga, dok sa formalno logicke strane, postoji Gedelova teorema u matematickoj logici, gde je dokazano da algoritamsko razmisljanje ce uvek naici na smislena pitanja na koje nece moci da odgovori.

  3. “Чак и са ГПТ-4, не постоји таква ствар као што је вештачка интелигенција” (https://www.itprotoday.com/artificial-intelligence/even-chat-gpt-4-theres-no-such-thing-artificial-intelligence)

    Термин изазива неспоразум и помаже његовим творцима да избегну кривицу.

    Нико не продаје будућност мајсторскије од технолошке индустрије. Према њеним заговорницима, сви ћемо живети у „метаверзуму“, изградити своју финансијску инфраструктуру на „вебу 3“ и напајати своје животе „вештачком интелигенцијом“. Сва три ова појма су фатаморгане које су зарадиле милијарде долара, упркос “уједу стварности”.

    “Вештачка интелигенција” нарочито призива и представу о “мислећим машинама”. Али ниједна машина не може да размишља а ниједан софтвер није заиста интелигентан. Сама та фраза може бити један од најуспешнијих маркетиншких термина свих времена.

    Али ГПТ-4 и други велики језички модели попут њега једноставно пресликавају базе података текста — близу билион речи за претходни модел — чије размере је тешко замислити. Потпомогнути армијом људи који их репрограмирају исправкама, модели каче речи једне о друге на основу вероватноће. То није интелигенција.

    Не помагати је важно: Термини попут „неуронске мреже“ и „дубоко учење“ само поткрепљују идеју да су ови програми слични људима. Неуронске мреже ни на који начин нису копије људског мозга; они су само лабаво инспирисани његовим радом.
    Дуготрајни покушаји да се покуша реплицирати људски мозак са његових отприлике 85 милијарди неурона су пропали. Научници су најближи томе да опонашају мозак црва, са 302 неурона.

    Потребан нам је другачији лексикон који не пропагира магично размишљање о компјутерским системима, и не ослобађа људе који дизајнирају те системе од њихове одговорности. Шта је боља алтернатива?
    Разумни технолози су годинама покушавали да замене „ВИ“ са „системима за машинско учење“, али то не заплиће језик на истоветан начин.

    Стефано Куинтарелли, бивши италијански политичар и технолог, смислио је још једну алтернативу, „Систематски приступи учењу алгоритама и машинског закључивања“ (енг. Systemic Approaches to Learning Algorithms and Machine Inferences) или SALAMI, да би подвукао бесмисленост питања која људи постављају о вештачкој интелигенцији: Да ли је SALAMI разуман? Да ли ће SALAMI икада имати надмоћ над људима?

    (прим. коментатора – да покушам (не могу да одолим): Симулација Апликативне
    Лингвистичке Аутокефалности (квази) Машинским Алгоритмима, САЛАМА)

    Најбезнадежнији покушај семантичке алтернативе је вероватно и најтачнији: „софтвер“.

    „Али“, чујем да се питате, „шта није у реду са употребом мале метафоричке скраћенице да опише технологију која делује тако магично?“

    Одговор је да приписивање интелигенције машинама даје незаслужену независност од људи, а њихове креаторе одриче одговорности за њихов утицај. Ако сматрамо да је ЧетГПТ „интелигентан“, онда смо мање склони да покушамо да држимо новоосновану (стартап) компанију “ОпенАИ ЛП” из Сан Франциска, његовог творца, да одговара за његове нетачности и пристрасности. Такође ствара фаталну сагласност међу људима који трпе штетне ефекте технологије; премда “ВИ” неће узети ваш посао или плагирати ваше уметничке креације – други људи хоће.

  4. Коментар Вам је као мортадела, господине САЛАМА, господине струка, сочна ” дугметара ” 😉

    3
    1

Оставите коментар