Oglas
Oglas
· · Коментари: 0
ЗАСТРАШУЈУЋЕ

Прети ли нам време ПСИХО РОБОТА? Експеримент изведен у Америци показао ЈЕЗИВУ БУДУЋНОСТ

Експеримент спроведен на чувеном Масачусетском институту за технологију показао је да „психа“ вештачке интелигенције може постати болесна. Међутим, да ли се психопата постаје – или рађа?

image2.png
Робот је надимак добио по убици из "Психа"Фото: Депозитфото
Oglas

Судећи по ономе што су урадили истраживачи чувеног Масачусетског института за технологију и од робота са може направити психопата, ако се „бомбардује“ одговарајућим садржајима. Они су обучили алгоритам вештачке интелигенције назван „Норман“ да промени своју „психу“, тако што су га изложили сликама смрти и насиља (надимак је дат по Норману Бејтсу, лику из филма „Психо“ из 1960. године, кога је глумио Ентони Перкинс).

Прочитајте још: Роботи ће заменити туристичке раднике: Консијеж је остао без посла, нек се спреми БАРМЕН (ВИДЕО)

Углавном, вештачка интелигенција је била „храњена“ искључиво непрекидним низом насилних слика, пре него што је тестирана Рошаховим мрљама.

Норман је злостављан Фото: Депозитфото
Норман је бомбардован насиљем и десило се зло.

Пинар Јанардаг, Мануел Себријан и Ијад Рахван посебно су обучавали вештачку интелигенцију да „изведе“ наслов слике, „методом дубоког учења“, како би се створили одговарајући описи у писаном облику. Желели су да докажу да метода уноса која се користи за машинско „подучавање“ алгоритма може касније у великој мери утицати на његово понашање.

Научници су тврдили да није крив алгоритам, већ подаци који се убацују на "Гуглу" и "Фејсбуку".

Научници су тврдили да, када су алгоритми оптужени да су пристрасни или непоштени, рецимо при објављивању „Фејсбук“ вести или фотографија на „Гуглу“, „кривац није алгоритам, већ пристрасни подаци који су у њега убачени“.

Прочтиајте још: РАЗОТКРИВЕНО! Американци су пре Кинеза оболели од короне, али су мислили да је ГРИП - постоји ДОКАЗ да је вирус настао у САД!

Како су изгледали Норманови описи Рошахових мрља? Стандардни алгоритам закључио је, рецимо, да се ради о „вази са цвећем“, док је Норман видео - „упуцаног човека“. У другом случају, Норману се приказао „човек који пуца испред своје супруге која вришти“, док је алгоритам који није био изложен суморним, узнемирујућим сликама, видео „особу која држи кишобран у ваздуху“.

Име је добио по Психу Фото:
Youtube/ screenshot Damontager
Психопата Норман је у свему видео убиства.

У једном од тестова, стандардни АИ је видео дирљив призор пара који стоји заједно. Норман је, међутим, сматрао да је то трудница која пада са грађевине. Након што је био изложен само негативним сликама и депресивном размишљању, Норманова логика емпатије једноставно није успела да се укључи.

Норманова емпатија није успела да се укључи.

Скај Мекдоналд, професорка клиничке психологије на универзитету Новог Јужног Велса, рекла да је ово један од експеримената најближих проучавању људске емпатије. Стручњаци за роботику се надају да ће једног дана вештачка интелигенција моћи да разуме људске емоције једноставним гледањем израза лица. Међутим, Мекдоналд тврди да је технологија „још увек далеко од потпуног разумевања сложености деловања људске емпатије“.

Прочитајте још: Зараде велике: Списак занимања која ће у будућности бити најтраженија

Поводом овог истраживања, неколико стручњака из „Силицијумске долине“ описало је раније сличне случајеве у којима су расизам и пристрасност филтрирани у различите алгоритме. Све у свему, закључили су вештачка интелигенција може бити ефикасна и непристрасна – само уколико су улазни подаци исправни.

Усудићемо се да кажемо да иста ствар важи – и за људе.

Oglas
Oglas
Oglas
Oglas
Oglas
Oglas
Пошаљи коментар
Komentari objavljeni na portalu Novosti.rs ne odražavaju stav vlasnika i uredništva, kao ni korisnika portala. Stavovi objavljeni u tekstovima pojedinih autora takođe nisu nužno ni stavovi redakcije, tako da ne snosimo odgovornost za štetu nastalu drugom korisniku ili trećoj osobi zbog kršenja ovih Uslova i pravila komentarisanja. Svaki prekršaj pravila komentarisanja može rezultirati upozorenjem ili zabranom korišćenja. Administratori i redakcija jedini su ovlašćeni za interpretaciju pravila. - Korisnički nalozi vlasništvo su davaoca usluge i svaka zloupotreba istih je kažnjiva - Korisniku se pristup komentarisanju može onemogućiti i bez prethodnog upozorenja. - Administratori zadržavaju pravo cenzurisanja postova što će biti naznačeno u tim postovima. Strogo su zabranjeni: govor mržnje, uvrede na nacionalnoj, rasnoj ili polnoj osnovi i psovke, direktne pretnje drugim korisnicima, autorima novinarskog teksta i/ili članovima redakcije, postavljanje sadržaja i linkova pornografskog, politički ekstremnog, uvredljivog sadržaja, oglašavanje i postavljanje linkova čija svrha nije davanje dodatanih informacija vezanih za tekst . Strogo je zabranjeno i lažno predstavljanje, tj. ostavljanje lažnih podataka u poljima za slanje komentara. Komentari koji su napisani velikim slovima neće biti odobreni. Redakcija Novosti.rs zadržava pravo da ne odobri komentare koji ne poštuju gore navedene uslove.
Oglas