Mākslīgais intelekts ir labāk jāapmāca

LEAD: Tam, kam ir vara pār AI, ir vara pār cilvēci. Daudzi cilvēki no tā baidās. Bet cik reālistisks ir šis apgalvojums?

Prof. Dr. Saimons Hegelihs: Mūsdienās tīklā ir daudz savdabīgu scenāriju, kuros mākslīgais intelekts pārņem pasaules kundzību. Tas noteikti ir pārsniegts. Bet ar mākslīgā intelekta palīdzību mūsdienās tiek izveidoti jaudīgi rīki, un šie rīki bieži ir lielu korporāciju rokās. Kam ir šie rīki, tam ir vara. Tāpēc es vēlos: reklamēt atvērto avotu. Galu galā viss ir saistīts ar jautājumiem: kam ir dati un zinātība?

LEAD: Ir vēl viens jautājums: Kam ir jāizveido AI nākotnes pamatnoteikumi? Vai valdībai ir jārīkojas un jāpieņem likumi?

Hegelich: Jā, mūsu valdībai nav tikai jārīkojas. Viņa jau ir aktīva. Piemēram, oktobrī gaidāms stratēģijas dokuments par AI. Tomēr šobrīd izskatās, ka Vācija koncentrējas uz nišu AI un robotiku saskaņā ar devīzi: Amerikāņiem ir dati. Ķīniešiem ir pusvadītāju tehnoloģija. Vāciešiem ir rūpniecība 4.0. Bet šis uzskats lielā datu problēmu pilnībā neaptver. Kā valsts stratēģiju es uzskatu, ka tas ir bīstams, jo tas izslēdz šādus nozīmīgus notikumus AI jomā.

displejs

LEAD: Runā par stratēģiju. Vai mākslīgā intelekta priekšmets neatrodas mūsu izglītības politikā?

Hegelich: Bieži tiek pieprasīts, lai mūsu bērni skolās būtu sagatavoti AI priekšmetam. Tomēr es domāju, ka mums ir daudz lielāka problēma – ar cilvēkiem, kuriem šodien ir darba dzīve. Viņi nespēs noturēties divu vai trīs gadu laikā, kad profesionālajā vidē izturēšanās pret robotizētajiem asistentiem un mākslīgo intelektu kļūst standarta. Tāpēc mums būs nepieciešama izglītība, kas aizskar ne tikai bērnus, bet visu sabiedrību.

LEAD: Kāds ir AI modelis? Ar kuru vērtību sistēmu intelektuālās mašīnas tirdzniecību veiks nākotnē? Kuras vērtības ir viņu programmēšanas pamatā?

Hegelich: Mašīnmācība principā ir ļoti konservatīva. Dators atrod tikai tos modeļus, kas jau atrodas datos, un kas arī var būt diskriminējoši. Un to ir ļoti grūti uzzināt no datiem. Piemērs: ja KI ir jāapgūst attiecības, neņemot vērā dzimumu, tas bieži neizdodas, jo daudzi citi izmantotie dati ir atkarīgi no dzimuma. Tāpēc algoritmiem bieži tiek prasīts TÜV. Es domāju, ka algoritmu TÜV tomēr nav lielas jēgas. Lai izpētītu algoritmu izmantošanas sociālo ietekmi, ir jāpārzina lietojuma joma, sabiedrība un algoritms. To nevar izdarīt aģentūra, kurai jāpiedalās pētniecībā un produktu attīstībā.

LEAD: Kāda ir situācija praksē?

Hegelich: Liela daļa no tā, ko uzņēmumi dara, nav pašreizējais pētījumu stāvoklis. Tikmēr mums ir augsti mašīnu apguves standarti, lai pārbaudītu, vai modeļi ir izturīgi: piemēram, savstarpēja validācija. Pieteikumā šīs metodes bieži netiek ņemtas vērā. Tā kā uzņēmumiem nav laika vai tie to uzskata par pārāk dārgu vai tāpēc, ka nav detalizētu pārbaudes scenāriju. Un ir vēl viena problēma: AI bieži izmanto cilvēki, kuri nesaprot, ko viņi dara.

LEAD: Kāds tad varētu būt iespējams risinājums?

Hegelich: Es redzu problēmu ar procedūrām. Mākslīgais intelekts ir balstīts uz tik daudzām dažādām matemātiskām operācijām, kas darbojas melnajā lodziņā. Sarežģītais modelis nav saprotams. Bet tas, ko cilvēki var saprast, ir izmaksu funkcija. Facebook piemērs: vai es, piemēram, reklamēt, cik ilgi lietotājs nodarbojas ar vienu rakstu, vai es vēlos mudināt lietotāju apskatīt pēc iespējas vairāk rakstu? Tātad uzturēšanās laiks pret ritināšanas izturēšanos.

Tas ietekmē reklāmu. To var padarīt caurspīdīgu. Tomēr arī pētījumi vienmēr ir neizpratnē: neironu tīklos ne vienmēr zina, kāpēc galu galā rodas noteikts rezultāts. Tāpēc zinātne cenšas padarīt savienojumus melnajā lodziņā redzamus. Ja tas izdodas, tad kļūs skaidrs: ko AI faktiski iemācījās?

Teaserbild Jauns

Minimāls tiešsaistes vai tehnikas entuziasts?

Tinder aizstāj joslu, sekretārs Alexa. Digitālā pasaule jau sen ir kļuvusi par vienotu ar reālo pasauli. Bet visi nevēlas ticēt realitātei. Cik pārliecinoši jūs pārvietojaties tīkla dzīvē?

Veiciet testu šeit

Atbildēt

Jūsu e-pasta adrese netiks publicēta. Obligātie lauki ir atzīmēti kā *