Kā izdodas panākt ētisku pieeju AI?

LEAD: Ko šodien var darīt AI?

Helmuts Šherers: dzirdot AI, daudzi domā, ka datorsistēmas uzvedas kā cilvēka intelekts. Bet vairumā gadījumu mēs vēl neesam tik tālu. Mūsdienās tiek izmantota mašīnmācība. Rīklodziņš, kas mācās no datu noteikumiem, lai ieviestu tā saucamās AI sistēmas. Mašīna var atbildēt uz samērā šauriem jautājumiem, piemēram, nozarē, piemēram, mašīnu apkopes jomā.

Helmuts Šherers rīkotājdirektors Futurice
Helmuts Šherers, Futurice rīkotājdirektors

Šeit jūs varat noteikt, kuras detaļas paredzēts nomainīt nākamās. Arī šāda tehnoloģija, automatizējot, piemēram, pašbraucošas automašīnas pirms pagrieziena, var paredzēt, kurā virzienā jāvirza stūre. Bieži vien pastāv nopietns nepareizs uzskats, ka atbildēšana uz tik šauriem jautājumiem, kuru pamatā ir liels datu apjoms, varētu aizstāt cilvēka inteliģenci.

LEAD: Tātad mašīnas atbalsta tikai cilvēkus?

Helmuts Šherers: Absolūti. Cilvēki bieži pieņem lēmumus, kas tiek pieņemti emocionālu iemeslu dēļ. Īpaši šeit ir jēga apvienot savas prasmes ar AI un apvienot zināšanas dažādās jomās. Nekādā gadījumā nav tā, ka cilvēka inteliģenci aizstāj ar AI.

displejs

LEAD: Kuros laukos mūsdienās galvenokārt izmanto AI?

Helmuts Šherers: Man ir četri punkti, kuros tiek izmantots AI: prognozēšana, personalizācija, objektu atpazīšana un struktūru uztveršana. Prognozes piemērs ir iepriekš minētais apkopes piemērs nozarē. Piemēram, attiecībā uz personalizēšanu mēs esam izveidojuši rīku lielai mediju grupai, kas raksta ieteikumus saskaņo ar personīgajām interesēm.

Runājot par cilvēku atpazīšanu, mēs esam veiksmīgi ieviesuši ātrāku reģistrācijas procesu biznesa ceļotājiem ar sejas atpazīšanas Finnair palīdzību. Ceturtā joma ir konstrukciju kolekcija. To īpaši izmanto vidē, kurā notiek daudz zināšanu, piemēram, mašīnbūves klientu apkalpošanā. Tur AI identificē informācijas modeļus no e-pastiem un datu bāzēm un palīdz noteikt visbiežāk sastopamos klientu jautājumus, lai darbinieki ātrāk varētu atrast risinājumus klientu atbalsta jomā.

LEAD: Cik tālu AI ir nonācis ikdienas dzīvē un kā, jūsuprāt, tas attīstīsies nākamajos pāris gados?

Scherer: Izmantojot dažādas ierīces un digitālos palīgus, piemēram, Alexa vai Siri, AI jau bieži ir neatņemama ikdienas sastāvdaļa. Daudzi cilvēki to vienkārši nezina. Es domāju, ka AI nākotnē tiks izmantots daudz vairāk, nekā tas jau ir. Ir svarīgi, lai AI būtu pieejama ne tikai dažiem lietotājiem. Priekšnoteikums pareizai tehnikas apstrādei, protams, ir pareiza izpratne par to.

LEAD: Kādam tam vajadzētu izskatīties?

Šērs: Tas ir līdzīgs plašsaziņas līdzekļu izplatīšanai. Piemēram, pirms 20 gadiem video izveidošana bija ļoti dārga un īstenojama tikai nedaudziem, nemaz nerunājot par izplatīšanu. Mūsdienās videoklipu var izveidot un izplatīt gandrīz ikviens. Es domāju, ka jums tas ir jāredz ar AI. Jums arī jāaicina cilvēki, kas nav tehnoloģiju eksperti, izprast ar AI saistītās iespējas un riskus.

LEAD: Ko tas konkrēti nozīmē?

Scherer: Komandām, kas izstrādā mašīnmācību vai AI risinājumus uzņēmumos, jābūt pēc iespējas daudzveidīgākai, lai iegūtu augstu pārredzamības un dažādošanas līmeni. Gan lietotāji, gan lēmumu pieņēmēji, gan tehnologi, gan dizaina eksperti jāapvieno, lai radītu vislabāko iespējamo izpratni. Piemēram, jums vajadzētu sazināties valodā, kuru saprot visi.

Izmantojot AI, jums vienmēr ir datu kopums, algoritms, kuram ir noteikta izvade un kas iegūst noteiktu darbību. Tur jums ir jāizstrādā šādi jautājumi: ko mēs vēlamies sasniegt? Ko algoritms faktiski optimizē? Vai dati ir pietiekami labi? Vai mēs uzdodam jautājumus pareizā veidā, vai arī ir kāda novirze? Kam mēs izmantojam izvadi? Kādas ir sekas, un vai mēs varam justies par to atbildīgi?

Interesanti arī: gudrāki tiešsaistes meklējumi ar AI & Co.

“Ar mašīnmācīšanās tehnoloģiju var atbildēt uz šauriem jautājumiem, bet patieso lēmumu joprojām pieņem cilvēki.”
Helmuts Šherers

LEAD: Un kur tad ir ētikas principi un jautājumi?

Scherer: Futurice mēs esam izstrādājuši četras vadlīnijas ētiskiem darījumiem ar AI, kuras uzņēmumi arvien vairāk izmanto. Pirmkārt, jums jāzina, kādu mērķi jūs tiecaties ar AI – un kā tas ietekmē citus. Otrkārt, pārredzamībai vienmēr jābūt prioritātei. Ir svarīgi, lai lietotāji uzticētos tehnoloģijai. Treškārt, mums jābūt iekļaujošiem un jāsaprot, kurus sistēma ietekmē. Un, ceturtkārt, personas dati ir droši jāuzglabā, lai nodrošinātu augstu privātuma līmeni.

LEAD: Kādi ir AI lietošanas riski?

Šherers: tāpat kā jebkura tehnoloģija, protams, pastāv ar risku. Tā piemēri ir neobjektivitāte, bet arī taisnīgums. Darbā pieņemšanas procesā jau tiek izmantoti mašīnmācīšanās algoritmi. Ir arī gadījumi, kad, piemēram, priekšroka tiek dota noteiktām cilvēku grupām. No tā, protams, vajadzētu izvairīties. Ja jūs iedomājaties policijas darbību, tad izmantotajai tehnoloģijai nevajadzētu atklāt viltus cilvēkus vai izdarīt nepatiesus secinājumus. AI sistēmai jābūt drošai, uzticamai un tajā nedrīkst uzkrāt neierobežotu daudzumu personas datu.

LEAD: Cik reāli jūs domājat par tādu cilvēku bailēm kā Elons Musks, ka AI kādreiz varētu pārņemt kontroli?

Šherere: AI jau vairākus gadus ir absolūta hype tēma un joprojām tā ir. Tomēr šeit un tagad AI mērķi un darbības joma joprojām ir samērā ierobežota. Mūsdienās pastāvošās matemātiskās prasmes nav daudz labākas nekā pirms dažiem gadiem. Tomēr šodien ir labāki veidi, kā novērtēt un izmantot datus. Pašlaik mēs redzam šeit: Jūs varat atbildēt uz jautājumiem, kas ir šauri definēti ar mašīnmācīšanās tehnoloģiju. Tomēr reālo lēmumu joprojām pieņem cilvēki.

Ctab dronu satura attēls

Mainīta perspektīva!

No debesīm: droni var darīt vairāk, nekā tikai lidot. Lielākā daļa no viņiem pat neapzinās savu reklāmas un mārketinga vai vides aizsardzības potenciālu. LEAD Bookazine 1/2019 parāda, ko droni var darīt.

Pasūtiet tūlīt

LEAD: Bet vai tas nevarētu būt savādāks desmit gadu laikā?

Šherers: Ja jūs pievērsīsities Skynet scenārijam, es domāju, ka šobrīd tas ir maz ticams. Tomēr nākamo desmit gadu laikā daudz kas notiks pie mums, it īpaši, ja runa ir par automatizācijas tehnoloģiju vai jutīgo analītiku. Visas tendences norāda, ka šeit ir redzams lielākais potenciāls.

LEAD: Un ārpus tā?

Šherers: Tagad man būtu nepieciešama stikla bumba … Bet daudzās jomās varat redzēt, ka cilvēki labi apzinās ētisko atbildību, strādājot ar tehnoloģijām. Pašlaik ar Datu aizsardzības regulu mēs redzam, ka cilvēki ir atbildīgāki par saviem datiem un vēlas uzzināt, kas notiek ar viņu datiem. Tas paplašināsies citās jomās. Arī politiskās institūcijas un uzņēmumi uzskata sevi par ētisku atbildību. Ir vairākas starptautiskas iniciatīvas, kas nodarbojas ar AI ētiku, un viena var tikai tajā dot savu ieguldījumu.

LEAD: Neskatoties uz to, no Ķīnas piemēra var redzēt, ka valdības var izmantot AI, lai pilnībā uzraudzītu pilsoņus un atņemtu no viņiem sankcijas. Tātad jūs varat iedomāties, cik tālu tas var novest.

Šērs: Absolūti. Tāpēc uzņēmumiem ir vēl svarīgāk rūpīgi pārdomāt, kurus ētikas principus ievērot.

LEAD: Tomēr mēs joprojām diezgan daudz atpaliekam no juridiskajiem pamatiem, kas saistīti ar AI, vai ne?

Ščērs: Es domāju, ka politika ir uz pareizā ceļa. ES Komisija jau sper pirmos soļus un šobrīd izstrādā ieteikumus ētiskām pamatnostādnēm, kā rīkoties ar AI Eiropā. Konkrētiem likumdošanas priekšlikumiem vajadzētu sekot no 2020. gada.

Interesanti arī: AI radīs nevainojamu digitalizācijas formu

Biļetens un Messenger

Vienmēr atjauniniet informāciju par visām digitālās dzīves tēmām, izmantojot LEAD biļetenu un LEAD Tech biļetenu. Profesionāli vai privāti. Savā iesūtnē vai caur Messenger.

Abonējiet mūsu biļetenu tūlīt
Abonējiet tagad, izmantojot Messenger

Atbildēt

Jūsu e-pasta adrese netiks publicēta. Obligātie lauki ir atzīmēti kā *