Mākslīgais intelekts (AI) ne tikai nav attaisnojis pārāk entuziasma atbalstītāju izvirzītās cerības; tā nav izpildījusi īpašas vajadzības un pamatprasības. Šis saraksts ir par kļūmēm, kas neļaus AI gūt panākumus un veikt mums nepieciešamos uzdevumus. AI pašlaik ir jauna tehnoloģija, kas labākajā gadījumā ir daļēji veiksmīga.
Viena no būtiskām problēmām, kas mūsdienās ir saistītas ar AI, ir tā, ka cilvēki turpina to antropomorfizēt un padarīt to par kaut ko tādu, kas nav. AI pieņem notīrītus datus kā ievadi, analizē tos, atrod modeļus un nodrošina pieprasīto izvadi. AI neko nesaprot, tas nevar radīt vai atklāt neko jaunu, un tam nav intrapersonālu zināšanu, tāpēc tas nevar ne par ko just līdzi. AI darbojas tā, kā to paredzējis programmētājs, un tas, ko jūs bieži uzskatāt par izlūkdatu, ir tikai gudras programmēšanas un milzīgs datu apjoms, kas analizēts noteiktā veidā. Lai uzzinātu vairāk par šīm un citām problēmām, skatiet rakstu “Pareizo jautājumu uzdošana par AI”.
Tomēr vēl svarīgāk ir tas, ka cilvēki, kuri apgalvo, ka AI galu galā pārņems pasauli, nesaprot, ka tas nav iespējams, ņemot vērā pašreizējās tehnoloģijas. AI nevar pēkšņi apzināties sevi, jo tai trūkst jebkādu līdzekļu, lai izteiktu emocijas, kas nepieciešamas, lai apzinātos sevi. AI mūsdienās trūkst dažu no septiņiem būtiskiem intelekta veidiem, kas nepieciešami, lai apzinātos sevi. Arī ar šo intelekta līmeni vien nepietiktu. Cilvēkiem ir dzirkstele, ko zinātnieki nesaprot. Nesaprotot, kas ir šī dzirkstele, zinātne nevar to atjaunot kā daļu no AI.
AI pilnīgi trūkst izpratnes
Spēja saprast ir cilvēkiem iedzimta, bet mākslīgajam intelektam tās pilnībā trūkst. Skatoties uz ābolu, cilvēks ir vairāk nekā tikai īpašību virkne, kas saistīta ar objekta attēlu. Cilvēki saprot ābolus, izmantojot sajūtas, piemēram, krāsu, garšu un sajūtu. Mēs saprotam, ka ābols ir ēdams un nodrošina specifiskas uzturvielas. Mums ir jūtas pret āboliem; varbūt mums tie patīk un šķiet, ka tie ir augstākais auglis. AI redz objektu, kuram ir ar to saistītas īpašības — vērtības, kuras AI nesaprot, bet tikai ar kurām manipulē. Nespēja saprast izraisa to, ka AI kopumā neatbilst cerībām.
Interpretē, nevis analizē
AI izmanto algoritmus, lai manipulētu ar ienākošajiem datiem un iegūtu izvadi. Uzsvars tiek likts uz datu analīzes veikšanu. Tomēr cilvēks kontrolē šīs analīzes virzienu un pēc tam viņam jāinterpretē rezultāti. Piemēram, mākslīgais intelekts var veikt rentgena analīzi, kas parāda potenciālu vēža audzēju. Iegūtais rezultāts var uzsvērt daļu no rentgena attēla, kurā ir audzējs, lai ārsts to varētu redzēt. Ārsts, iespējams, nevarētu redzēt audzēju citādi, tāpēc AI neapšaubāmi sniedz svarīgu pakalpojumu. Pat ja tā ir, ārstam joprojām ir jāpārskata rezultāts un jānosaka, vai rentgenstūris patiešām parāda vēzi. AI var viegli apmānīt, kad pat neliels artefakts parādās nepareizā vietā. Sekojoši,
Interpretācija ietver arī spēju redzēt tālāk par datiem. Tā nav spēja radīt jaunus datus, bet gan saprast, ka dati var liecināt par kaut ko citu, nevis šķietamo. Piemēram, cilvēki bieži var pateikt, ka dati ir viltoti vai viltoti, lai gan paši dati neliecina par šīm problēmām. AI pieņem datus gan kā īstus, gan patiesus, savukārt cilvēks zina, ka tie nav ne īsti, ne patiesi. Pašlaik nav iespējams precīzi formulēt, kā cilvēki sasniedz šo mērķi, jo cilvēki to patiesībā nesaprot.
Pārsniedzot tīros skaitļus
Neskatoties uz to, ka citādi šķiet, AI darbojas tikai ar cipariem. Piemēram, mākslīgais intelekts nevar saprast vārdus, kas nozīmē, ka, runājot ar to, mākslīgais intelekts vienkārši veic modeļu saskaņošanu pēc tam, kad runa ir pārveidota ciparu formātā. Jūsu teiktā būtība ir zudusi. Pat ja mākslīgais intelekts būtu spējīgs saprast vārdus, tas to nevarētu izdarīt, jo pēc tokenizācijas procesa vārdi ir pazuduši. AI nespēja saprast kaut ko tik vienkāršu kā vārdus nozīmē, ka AI tulkojumā no vienas valodas uz otru vienmēr pietrūks kaut kas, kas nepieciešams, lai tulkotu sajūtu aiz vārdiem, kā arī pašus vārdus. Vārdi pauž jūtas, un mākslīgais intelekts to nevar izdarīt.
Tas pats konversijas process notiek ar visām maņām, kas piemīt cilvēkiem. Dators pārvērš redzi, skaņu, smaržu, garšu un pieskārienu ciparu attēlos un pēc tam veic modeļu saskaņošanu, lai izveidotu datu kopu, kas simulē reālās pasaules pieredzi. Lietas vēl vairāk sarežģī tas, ka cilvēki bieži piedzīvo lietas atšķirīgi. Piemēram, katrs cilvēks krāsu izjūt unikāli . AI katrs dators redz krāsas tieši tādā pašā veidā, kas nozīmē, ka mākslīgais intelekts nevar izjust krāsas unikāli. Turklāt pārveidošanas dēļ AI faktiski vispār nepiedzīvo krāsas.
Ņemot vērā sekas
AI var analizēt datus, bet nevar pieņemt morālus vai ētiskus spriedumus. Ja jūs lūgsit AI izdarīt izvēli, tas vienmēr izvēlēsies opciju ar vislielāko veiksmes varbūtību, ja vien nenodrošināsiet arī kādu nejaušības funkciju. AI izdarīs šo izvēli neatkarīgi no iznākuma.
Daudzās situācijās nepareizi novērtēt AI spēju veikt uzdevumu ir vienkārši neērti. Dažos gadījumos uzdevums var būt jāveic otro vai trešo reizi manuāli, jo mākslīgais intelekts neatbilst uzdevumam. Tomēr, runājot par sekām, papildus morālām un ētiskām problēmām jūs varat saskarties ar juridiskām problēmām, ja uzticaties AI veikt tam nepiemērotu uzdevumu. Piemēram, ļaut pašbraucošai (SD) automašīnai braukt vienai vietā, kur šī nepieciešamība nav nodrošināta, iespējams, ir nelikumīga, un jūs saskarsieties ar juridiskām problēmām papildus bojājumiem un medicīniskām izmaksām, ko var SD automašīna. cēlonis. Īsāk sakot, ziniet, kādas ir juridiskās prasības, pirms uzticaties AI veikt jebkādas darbības, kas saistītas ar iespējamām sekām.
AI nevar kaut ko atklāt vai izveidot
AI var interpolēt esošās zināšanas, taču tā nevar ekstrapolēt esošās zināšanas, lai radītu jaunas zināšanas. Kad mākslīgais intelekts saskaras ar jaunu situāciju, tas parasti mēģina to atrisināt kā esošu zināšanu daļu, nevis pieņemt, ka tas ir kaut kas jauns. Faktiski AI nav metodes, lai radītu kaut ko jaunu vai uzskatītu to par kaut ko unikālu. Tās ir cilvēka izpausmes, kas palīdz mums atklāt jaunas lietas, strādāt ar tām, izstrādāt metodes mijiedarbībai ar tām un radīt jaunas metodes to izmantošanai jaunu uzdevumu veikšanai vai esošo uzdevumu papildināšanai.
Jaunu datu izstrāde no vecajiem
Viens no biežākajiem uzdevumiem, ko cilvēki veic, ir datu ekstrapolācija ; piemēram, ņemot vērā A, kas ir B? Cilvēki izmanto esošās zināšanas, lai radītu jaunas cita veida zināšanas. Zinot vienu zināšanu daļu, cilvēks ar lielu veiksmes iespējamību var veikt lēcienu uz jaunu zināšanu daļu, kas atrodas ārpus sākotnējo zināšanu jomas. Cilvēki veic šos lēcienus tik bieži, ka tie kļūst par otro dabu un galējībās kļūst intuitīvi. Pat bērni var izteikt šādas prognozes ar augstu panākumu līmeni.
Labākais, ko AI jebkad darīs, ir interpolēt datus, piemēram, ņemot vērā A un B, vai C ir kaut kur pa vidu? Iespēja veiksmīgi interpolēt datus nozīmē, ka AI var paplašināt modeli, bet nevar izveidot jaunus datus. Tomēr dažreiz izstrādātāji var maldināt cilvēkus, domājot, ka dati ir jauni, izmantojot gudras programmēšanas metodes. C klātbūtne izskatās jauna, ja tā patiesībā nav. Jaunu datu trūkums var radīt apstākļus, kuru dēļ AI šķietami atrisina problēmu, bet tā nav. Problēma prasa jaunu risinājumu, nevis esošo risinājumu interpolāciju.
Redzot tālāk par modeļiem
Pašlaik AI var redzēt datu modeļus, ja tie nav redzami cilvēkiem. Spēja redzēt šos modeļus padara AI tik vērtīgu. Datu apstrāde un analīze ir laikietilpīga, sarežģīta un atkārtojas, taču mākslīgais intelekts var veikt uzdevumu bez grūtībām. Tomēr datu modeļi ir tikai izvade un ne vienmēr risinājums. Cilvēki paļaujas uz piecām maņām, empātiju, radošumu un intuīciju, lai redzētu tālāk par modeļiem uz potenciālu risinājumu, kas atrodas ārpus tā, kam dati liktu noticēt.
Galvenais veids, kā izprast cilvēka spēju redzēt ārpus modeļiem, ir skatīties debesīs. Mākoņainā dienā cilvēki var redzēt modeļus mākoņos, bet AI redz mākoņus un tikai mākoņus. Turklāt divi cilvēki vienā un tajā pašā mākoņu komplektā var redzēt dažādas lietas. Radošais skats uz rakstiem mākonī var likt vienam cilvēkam redzēt aitu, bet citam — strūklaku. Tas pats attiecas uz zvaigznēm un cita veida rakstiem. AI parāda modeli kā izvadi, taču tas nesaprot modeli un tam trūkst radošuma, lai ar šo modeli kaut ko darītu, izņemot ziņošanu, ka modelis pastāv.
Jaunu sajūtu ieviešana
Tā kā cilvēki ir kļuvuši zinošāki, viņi ir arī apzinājušies cilvēku maņu atšķirības, kuras patiesībā nav labi pārveidojamas par AI, jo šo sajūtu replicēšana aparatūrā šobrīd nav īsti iespējama. Piemēram, spēja izmantot vairākas maņas, lai pārvaldītu vienu ievadi ( sinestēzija ), ir ārpus AI.
Sinestēzijas efektīva aprakstīšana ir daudz plašāka nekā lielākā daļa cilvēku. Pirms viņi var izveidot mākslīgo intelektu, kas var atdarināt dažus patiesi pārsteidzošos sinestēzijas efektus, cilvēkiem vispirms tas pilnībā jāapraksta un pēc tam jāizveido sensori, kas pārvērš pieredzi skaitļos, kurus AI var analizēt. Tomēr pat tad AI redzēs tikai sinestēzijas ietekmi, nevis emocionālo ietekmi. Līdz ar to mākslīgais intelekts nekad pilnībā nepiedzīvos vai nesapratīs sinestēziju. Savādi, daži pētījumi liecina, ka pieaugušos var apmācīt iegūt sinestētisku pieredzi , padarot AI nepieciešamību neskaidru.
Lai gan lielākā daļa cilvēku zina, ka cilvēkiem ir piecas maņas, daudzi avoti tagad apgalvo, ka cilvēkiem patiesībā ir daudz vairāk nekā standarta piecas maņas. Dažas no šīm papildu maņām nemaz nav labi saprotamas un ir tikai tikko pierādāmas, piemēram, magnetorecepcija (spēja noteikt magnētiskos laukus, piemēram, zemes magnētisko lauku). Šī sajūta dod cilvēkiem iespēju noteikt virzienu, līdzīgi kā putniem, bet mazākā mērā. Tā kā mums nav metodes, kā pat kvantitatīvi noteikt šo sajūtu, to atkārtot kā daļu no AI nav iespējams.
AI trūkst empātijas
Datori neko nejūt. Tas ne vienmēr ir negatīvs, taču šajā nodaļā tas tiek uzskatīts par negatīvu. Bez spējas justies dators nevar redzēt lietas no cilvēka perspektīvas. Tas nesaprot būt priecīgam vai bēdīgam, tāpēc nevar reaģēt uz šīm emocijām, ja vien programma nerada metodi, kā analizēt sejas izteiksmes un citus rādītājus un pēc tam rīkoties atbilstoši. Pat ja tā ir, šāda reakcija ir apzināta atbilde un ir pakļauta kļūdām. Padomājiet par to, cik daudz lēmumu jūs pieņemat, pamatojoties uz emocionālām vajadzībām, nevis tiešiem faktiem. Empātijas trūkums no mākslīgā intelekta puses daudzos gadījumos neļauj tam pienācīgi mijiedarboties ar cilvēkiem.
Staigājot kāda kurpēs
Ideja staigāt kāda cita apavos nozīmē aplūkot lietas no citas personas perspektīvas un justies līdzīgi tam, kā jūtas otrs. Neviens patiesi nejūtas tieši tāpat kā kāds cits, taču caur empātiju cilvēki var tuvināties. Šim empātijas veidam ir nepieciešams spēcīgs intrapersonālais intelekts kā sākumpunkts, kas mākslīgajam intelektam nekad nebūs, ja vien tas neattīstīs sevis sajūtu ( singularitāti ). Turklāt mākslīgajam intelektam būtu jāspēj sajust kaut kas, kas pašlaik nav iespējams, un AI būtu jābūt atvērtam jūtu apmaiņai ar kādu citu būtni (parasti cilvēku, mūsdienās), kas arī nav iespējams. Pašreizējais mākslīgā intelekta tehnoloģijas stāvoklis neļauj AI izjust vai saprast jebkāda veida emocijas, kas padara empātiju neiespējamu.
Protams, jautājums ir par to, kāpēc empātija ir tik svarīga. Bez spējas justies tāpat kā kādam citam AI nevar attīstīt motivāciju veikt noteiktus uzdevumus. Jūs varētu likt AI veikt uzdevumu, taču tur AI pašam nebūtu motivācijas. Līdz ar to mākslīgais intelekts nekad neveiktu noteiktus uzdevumus, lai gan šādu uzdevumu veikšana ir prasība, lai veidotu prasmes un zināšanas, kas nepieciešamas, lai sasniegtu cilvēkam līdzīgu intelektu.
Īstu attiecību veidošana
AI veido priekšstatu par jums, izmantojot savāktos datus. Pēc tam tā izveido modeļus no šiem datiem un, izmantojot īpašus algoritmus, izstrādā rezultātus, kas liek jums šķist, ka jūs pazīst — vismaz kā paziņu. Tomēr, tā kā AI nejūtas, tas nevar novērtēt jūs kā cilvēku. Tas var kalpot jums, ja jūs tam pavēlat to darīt un pieņemot, ka uzdevums ir tā funkciju sarakstā, bet tas nevar jums justies.
Risinot attiecības, cilvēkiem ir jāņem vērā gan intelektuālā pieķeršanās, gan jūtas. Intelektuālā pieķeršanās bieži rodas no kopīga labuma starp divām vienībām. Diemžēl starp mākslīgo intelektu un cilvēku (vai šajā jautājumā jebkuru citu vienību) nav kopīgu labumu. AI vienkārši apstrādā datus, izmantojot noteiktu algoritmu. Kaut kas nevar apgalvot, ka mīl kaut ko citu, ja pavēle liek tai pasludināt. Emocionālajai pieķeršanās ir jānes līdzi noraidījuma riskam, kas nozīmē pašapziņu.
Perspektīvas maiņa
Cilvēki dažreiz var mainīt viedokli, pamatojoties uz kaut ko citu, nevis uz faktiem. Pat ja izredzes teiktu, ka konkrēta rīcība ir apdomīga, emocionāla vajadzība padara vēlamu citu rīcību. AI nav preferenču. Tāpēc tā nevar izvēlēties citu darbības veidu cita iemesla dēļ, izņemot varbūtību izmaiņas, ierobežojumu (noteikums, kas tai liek veikt izmaiņas) vai prasības nodrošināt nejaušu izvadi.
Veicot ticības lēcienus
Ticība ir ticība kaut kam patiesībai bez pierādītiem faktiem, kas apstiprina šo pārliecību. Daudzos gadījumos ticība izpaužas kā uzticēšanās, kas ir ticība citas personas patiesumam bez pierādījumiem, ka otra persona ir uzticama. AI nevar izrādīt ne ticību, ne uzticību, kas ir daļa no iemesla, kāpēc tas nevar ekstrapolēt zināšanas. Ekstrapolācijas akts bieži balstās uz nojausmu, kas balstīta uz ticību, ka kaut kas ir patiess, neskatoties uz to, ka trūkst jebkāda veida datu, kas pamatotu nojausmu. Tā kā mākslīgajam intelektam trūkst šīs spējas, tas nevar parādīt ieskatu — tā ir nepieciešama prasība cilvēkiem līdzīgiem domāšanas modeļiem.
Piemēri ir daudz izgudrotāju, kuri veica ticības lēcienus, lai radītu kaut ko jaunu. Tomēr viens no ievērojamākajiem bija Edisons. Piemēram, viņš veica 1000 (un, iespējams, vairāk) mēģinājumus izveidot spuldzi. AI būtu padevies pēc noteikta skaita mēģinājumu, iespējams, ierobežojumu dēļ. Varat skatīt to cilvēku sarakstu, kuri ir veikuši lēcienus, lai tiešsaistē veiktu pārsteidzošas darbības. Katrs no šiem aktiem ir piemērs tam, ko mākslīgais intelekts nevar izdarīt, jo tam trūkst iespēju pārdomāt konkrētos datus, ko sniedzat kā ievadi.