IBM: Watson – Implikaatiot ja mahdollisuudet: tiedonsaatavuuden yltäkylläisyydestä sen kielelliseen automaattiharavointiin

Essee keväältä 2011
________________________________________________________

Pohjustus

Tekoäly, eli artificial intelligence (AI), kuvaa Wikipedian mukaan koneiden älyä ja tietojenkäsittelytieteiden haaroja, jotka pyrkivät luomaan tällaisen. Nykyisissä oppikirjoissa tämä tieteen kenttä määritellään yleensä ”älykkäiden agenttien tutkimiseksi ja suunnittelemiseksi”, jossa älykkäällä agentilla tarkoitetaan järjestelmää, joka on tietoinen ympäristöstään ja pyrkii toimintojensa kautta maksimoimaan ympäristössään menestymisen. Yhdysvaltalainen tietojenkäsittely- ja kognitiotieteilijä John McCarthy (1927-) esitti tekoäly-termin vuonna 1955 ja määrittelee terminsä itse ”tieteeksi ja insinööritaidoksi tehdä älykkäitä koneita”. Yleisesti ottaen tekoäly ymmärretään usein keinotekoiseksi koneeksi, joka kykenee hämmästyttävillä tavoilla replikoimaan ihmisen toimintaa, tai jopa oleellisemmin ylittämään ihmisen toiminta- tai suorituskapasiteetin. Tämä näkökulma ei keskity itse koneen suunnitteluun vaan pikemminkin sellaisen funktionaalisuuteen itsenäisenä objektina. Osaltaan sci-fi-elokuvat ja -sarjat ovat olleet myös muokkaamassa mielikuvia tekoälystä, kuten vahvimmin mieleen tulevassa Steven Spielbergin A.I.-elokuvassa (2001).

Koko tekoälyn käsite johtaa juurensa ajatukseen, että ihmislajille ominainen älykkyys on mahdollista kuvata niin tarkasti, että se voidaan simuloida koneella. Näin ollen tekoälytutkimus on myös tietojenkäsittelytieteen haara, joka pääsee lähimmäs filosofiaa. Se herättää ja jatkaa monia muinaisia kysymyksiä mielen luonteesta ja sen luonnin tai manipuloinnin etiikasta.

Tekoälyn kehityshaaran pitkän aikavälin tavoitteena on kauan ollut niin sanotun vahvan tekoälyn luonti. Vahva tekoäly viittaa koneeseen, joka on käytännössä erottamaton ihmisen älykkyyden toiminnasta, ja joka voi tehdä ihmisille konventionaalisia asioita sekä omaa jonkinlaisen tietoisuuden. Sen sijaan heikko tekoäly puolestaan viittaa koneeseen, joka kykenee hyvin spesifien tehtävien suorittamiseen ja ongelmien ratkaisuun, mutta ei saavuta ihmisen kognitiivisia kykyjä kaikessa niiden laaja-alaisuudessa. Yleisesti ottaen siis heikko tekoäly ei omaa minkäänlaista tietoisuuteen verrattavaa elementtiä, ja toimii hyvin rajatulla sovellusalueella.

Tekoälyn ideasta ja käsitteestä

Tekoälytutkimus on ajoittain herättänyt paljon polemiikkia, ei ainoastaan sen eettisten kysymysten pohjalta, mutta myös itse terminologian määrittelyn ja konseptin toteutusmahdollisuuden puolesta. Usein tutkimuksessa ja tekoälyn ohjelmoinnissa hyödynnetään sumeaa logiikkaa, joka on matemaattisen logiikan laajennus, jossa propositiolla on diskreetin totuusarvon (tosi tai epätosi) sijaan reaalinen totuusarvo suljetulla välillä nollasta yhteen. Esimerkiksi tällä pyritään simuloimaan ihmisen toimintaa erilailla eri ongelmanratkaisutilanteiden eri skenaarioissa. Kaiken kaikkiaan tekoälytutkimuksen kenttä on hyvin eriytynyttä ja spesifisti erikoistunutta, ja lukuisiin toistensa kanssa huonosti kommunikoiviin koulukuntiin jakautunutta.

Merkittävä kysymys asiaan liittyvän filosofian puolella on tekoälyn synnyttämät kysymykset siihen liittyvien asioiden luonteesta. Näitä asioita ovat esimerkiksi älykkyys, tietoisuus, päätöksenteko ja ajattelu. Yleisesti ottaen kaikkein kriittisin argumentti koskee tekoälyn päätöksenteon järjettömyyttä, jonka esimerkiksi Noam Chomsky (1928-) on muotoillut muun muassa näin:

“The question of whether a computer is playing chess, or doing long division, or translating Chinese, is like the question of whether robots can murder or airplanes can fly — or people; after all, the ”flight” of the Olympic long jump champion is only an order of magnitude short of that of the chicken champion (so I’m told). These are questions of decision, not fact; decision as to whether to adopt a certain metaphoric extension of common usage.” – Powers and Prospects, 1996

Chomsky ja monet muut siis painottavat ihmistekijää kaikkien koneiden takana, jolloin puhuminen koneen älykkyydestä muuttuu täysin tulkinnanvaraiseksi asiaksi ja vain retoriseksi keinoksi. Ohjelmoija on kuningas ja koodi on orja. Mutta kuten Chomskykin vihjaa, lopulta päätös lankeaa termien määritelmälle. Miten määrittelemme tekoälyn tai älyn? Rajaammeko ihmisen tekemillä algoritmeilla itseään ohjaavan laitteen oletusarvoisesti älykkyyden ulko- tai sisäpuolelle? Ongelma on siis, että kone pystyy tekemään aina päätöksiä korkeintaan vain niin pitkälle kuin mihin se on suunniteltu pystyvän, mutta kriitikoiden mukaan koneen pitäisi jotenkin pystyä ylittämään nämä rajat itsenäisesti, jotta ansaitsisi yksiselitteisesti älykkyyden määritelmän kunnian. Oleellisesti Chomsky luultavasti kuitenkin korostaa omissa, osin hyvin vahvoissakin mielipiteissään vain heikon tekoälyn suunnittelun vaikuttamattomuutta vahvan tekoälyn tavoittelun rinnalla.

Eräänlainen vastanäkökulma tälle koneen älykkyyden ja päätöksenteon määrittelydilemmalle löytyy muun muassa sosiaalipsykologian ja neurotieteen esitysten kautta. Koneiden päätöksentekokyvyn kyseenalaistaminen missä tahansa tilanteessa, kuten hyvinkin rajatussa tehtävänannossa, on tietyllä tasolla yhtä validia kuin ihmisen päätöksentekokyvyn kyseenalaistaminen, ja näin ollen hyvin mitään sanomaton debatti. Kiteytetysti siis yhtä hyvin voisi sanoa, että ihminenkin on jokaisessa toiminnossaan aivokemian ja synapsien tasolla vain ympäristönsä ja geeniensä määrittelemä toimintakone, joka kykenee päätöksenteossaan myös vain siihen, mihin tämä on iskostettu kykenemään; eli ikään kuin ”ohjelmoitu” kykenemään. Tämän sosiobiologisen näkökulman alla ihmisen älykkyys ja päätöksenteko on yhtä problemaattista kuin koneiden mahdollinen älykkyys ja päätöksenteko: siinä missä ihmistä ohjaa ympäristön ja geenien mukaan muotoutuva aivotoiminta, konetta ohjaa kovalevyllä sijaitseva koodi ja sitä hyödyntävä ympäristö. Äärimmillään niin kone kuin ihminenkin ovat kummatkin tulkittavissa omien määräävien tekijöidensä ansiosta deterministisiksi olennoiksi. Eli tällä tavoin konkretiaan sidottuna: koneen älykkyydelle tai älyttömyydelle on filosofisesti hyvin samat puitteet kuin ihmisen vastaavalle, josta syystä esimerkiksi Chomskyn esittämä koneen päätöksenteon tulkinnanvaraisuus on erittäin relevantti pointti. Näin ollen ihmisen ja koneen, tai luojan ja luomuksen, terminologinen erottaminen on ainoa debatissa määräävä tekijä – ja vain päätöskysymys, että onko niitä mielekästä erottaa jotenkin erityisen merkitsevällä tavalla toisistaan esimerkiksi niin, että konetta ei vain suostuta määrittelemään kykeneväiseksi päätöksentekoon vaikka tämä päätöksentekoprosessi ei ole mikrotasolla sen problemaattisempaa kuin ihmisen oma mikrotason päätöksentekoprosessi.

Tämä koneen ja ihmisen toimintojen samankaltaisuus havainnollistuu esimerkiksi tietokonepelien tekoälyn suunnittelussa. Esimerkiksi taitavasti ohjelmoitua StarCraft-pelin AI:ta ei välttämättä erota taitavaksi harjoitelleesta ihmispelaajasta itse peliprosessissa, koska molemmat toimivat tietyin tavoin saman logiikkakehyksen alla muodostuneen ja muokkautuvan taktiikan kautta. Näin ollen pitkään elossa ollut aspiraatio onkin ollut demonstroida ja kehittää erilaisia (heikon) tekoälyn mahdollisuuksia, rakentamalla ja ohjelmoimalla tietokoneita jotka ovat ylivertaisia ihmiseen nähden hyvin spesifillä osa-alueella. IBM on ollut eräs näkyvimpiä tekijöitä tällä haaralla.

Shakista Jeopardyyn

Shakkitietokoneiden historia on suhteellisen pitkäikäinen. Jo 1951 Alan Turing (1912–1954) kehitti ohjelman, joka kykeni pelaamaan kokonaisen pelin shakkia. Eli teoreettisesti kone kykeni voittamaan ihmisen ensimmäistä kertaa shakissa jo vuonna 1951, mutta tällöin pelaajan tuli toki olla suhteellisen heikkotasoinen. Tämän jälkeen on nähtävissä jonkinasteista kilpailua siitä, milloin saataisiin luoduksi oikeasti menestyvä ja hyviä pelaajia voittava shakkikone. 1977 Larry Atkinin ja David Slaten kehittämä Chess 4.6. oli ensimmäinen shakkitietokone, joka menestyi merkittävässä shakkiturnauksessa. Kuten yleensäkin ihmiskunnan historiassa, kun tietty kehitysaste saavutetaan, katsotaan jo kauas eteenpäin ja kehityksen haaveet nousevat yhä korkeammalle. Carnegie Mellon –yliopistosta IBM:n (International Business Machines) kehityksen pariin siirtynyt Deep Thought –kone voitti 1980-luvun lopulla monia tietokoneshakkiturnauksia muita tietokoneita vastaan, mutta hävisi kaksi näytösottelua tunnettua shakin maailmanmestaria, Garry Kasparovia (1963-), vastaan.

IBM:n seuraava projekti oli shakkitietokone Deep Blue – joka oli nimikilpailussa uudelleennimetty, ja paranneltu, Deep Thought. Tämä kone voitti Kasparovin ensimmäistä kertaa yksittäisessä ottelussa 1996, mutta Kasparov voitti kuitenkin turnauksen kokonaisuudessaan. Seuraavana vuonna, 1997, paranneltu Deep Blue ja Kasparov kohtasivat uudelleen, jossa kuuluisasti tietokone voitti ensimmäistä kertaa shakin maailmanmestarin. Tätä saavutusta pidettiin aikoinaan (heikon) tekoälyn kuningassaavutuksena ja ottelusta tehtiin muun muassa dokumentti ”Game Over: Kasparov and the Machine”. Kasparovin revanssipyynnöistä huolimatta, IBM veti Deep Blue -koneen eläkkeelle.

Shakkiseikkailut olivat selkeästi tuoneet varakkaalle IBM:lle kokemusta heikon tekoälyn suunnittelusta ja mahdollisuuksista. Seuraava suurempi julkiseksi aiottu projekti alkoi vuonna 2005 kun IBM:n tutkimusjohtaja Paul Horn löysi kehittyneelle haasteelle vastaanottajan: David Ferrucci suostui johtamaan ryhmää, jonka haasteena oli kehittää ”Jeopardy!”-tietovisassa menestyvä tekoäly. Jeopardy-tietovisassa kilpailijat vastaavat sanaleikkien avulla esitettyihin kysymyksiin, jotka vaativat selkeää kielen tuntemusta. Kone, jota lähdettiin kehittämään, sai nimen Watson. Vaikka käyttöyhteydestäkin on helposti johdettavissa konnotaatio Sir Arthur Conan Doylen (1859–1930) Sherlock Holmes –tarinoihin, niin IBM:n Watson sai kuitenkin nimensä IBM:n johtajasuvun mukaan. Hyvin alkutason testeissä, vuonna 2006, Watson sai vain 15 % kysymyksistä oikein, kun taasen parhaat ihmispelaajat saavat 95 % kysymyksistä oikein. Vuonna 2007 IBM:n alustavan työn tehnyt tiimi sai 3-5 vuotta kehitysaikaa sekä kokonaisuudessaan 15 hengen tiimin ratkaisemaan ongelmia. Lisäksi IBM teki laajasti yhteistyötä eri yliopistojen kanssa. Jo 2008 vuoteen mennessä, kehittäjät olivat saaneet Watsonin pisteeseen, jossa tämä oli kykenevä kilpailemaan Jeopardy-voittajien tasolla. Helmikuuhun 2010 mennessä Watson kykeni säännöllisesti voittamaan keskimääräisiä Jeopardy-pelaajia.

Watsonin esittäytyminen

Pitkän kehitystyön, suunnittelun ja valmistelun jälkeen Watson osallistui harjoitusotteluun kahta menestyneintä Jeopardy-mestaria, Ken Jenningsiä ja Brad Rutteria vastaan, tammikuussa 2011. Kukaan kolmesta pelaajasta eivät vastanneet pienen harjoitussession vihjeisiin väärin.

Helmikuussa 2011 pitkään järjestelty, virallinen kaksipäiväinen ottelu Watsonin ja yllämainituiden Jeopardy-mestareiden välillä televisioitiin. Jeopardy-studio oli rakennettu uudelleen IBM:n tiloihin, sillä Watsonin koneisto vie mittavasti tilaa ja painaa sitäkin enemmän. Kaksipäiväinen mittelö televisioitiin kolmessa jaksossa Yhdysvalloissa, jossa Jeopardy on pyörinyt televisiossa jo vuonna 1964 ja sittemmin, välillä pitäen taukoa, jo 27 tuotantokautta. Vaikka Watson teki joitakin koneen sumealle logiikalle ominaisia virheitä, niin voitti se kaiken kaikkiaan ihmismestarit ylivoimaisesti. Toisen päivän lopuksi Watson johti yhteistuloksellaan $77 147, kun toiseksi sijoittuneella Jenningsillä oli $24 000 ja kolmanneksi tulleella Rutterilla $21 600. Voitostaan Watson kuittasi miljoona dollaria, jonka IBM antoi hyväntekeväisyyteen. Jennings kuittasi toisesta sijastaan $300 000 ja Rutter kolmannesta $200 000, jotka kummatkin antoivat 50 % voitoistaan hyväntekeväisyyteen.

Lähitulevaisuuden implikaatiot ja sovellusmahdollisuudet

Kuten mainittua, Watson vie paljon tilaa: tämän yhdeksän IBM Power 750 serveriklusterin yhdistämässä, huoneen täyttävässä koneistossa jyllää kaksituhattakahdeksansataakahdeksankymmentä (2880) POWER7 –prosessoriydintä ja 16 terabittiä RAM:ia. Tämä koneisto kykenee prosessoimaan 500 gigabittiä dataa sekunnissa. Arviolta rakennuskustannukset ovat noin kolme miljoonaa dollaria ja asettavat koneen sijalle 94 top 500 supertietokonelistalla. Ohjelmistopuolella koneen ytimessä on IBM:n DeepQA-ohjelmistoksi nimeämä koodi. Tämä käyttää yli sataa tekniikkaa, joilla se analysoi laitteistonsa ansiosta erittäin nopeasti luonnollista kieltä, tunnistaa lähteitä, etsii ja generoi hypoteeseja ja todisteita, sekä sulauttaa ja rankkaa näitä hypoteeseja. Tämän analysoinnin lähteenä on koneeseen sisään syötetty kattava tietokanta, joka koostuu muun muassa Wikipediasta ja monista muista tietokannoista, sanaluetteloista, taksonomioista ja ontologioista. Teoreettisesti tämä tietokanta olisi korvattavissa millä tahansa tietokannalla, kuten Internetillä.

IBM luonnehtii Watsonia kysymyksiin vastaavaksi laskentakoneeksi, joka on kehittynyt työkalu luonnollisen kielen prosessointiin, tiedonhakuun, tiedon esittämiseen, järkeilyyn ja koneoppimiseen. Käytännössä siis IBM on kuvannut myös, miten Watson oppii vääristä vastauksistaan ja seuraavalla kerralla osaa vastata kysymykseen oikein. IBM on luonnehtinut, miten Watsonin ohjelmakoodissa – kielenymmärryksen rakentamisessa, aineiston analysoimisessa ynnä muussa – on otettu vahvasti mallia ihmisaivojen neuropsykologiasta ja tätä kautta hahmotettavissa olevista, eri spesifejä tehtäviä toteuttavista funktioista, jotka yhdistyvät lopulta tuottaen koherentin lopputuloksen.

Konkreettisesti Watson osaa siis tieteelliseen deduktioon verrattavien metodien avulla vastata äärimmäisellä nopeudella monimutkaisiin kielellisiin kysymyksiin, perustuen tämän laajoihin tietokantoihin ja näiden analysointiin. Tämän jälkeen Watson osaa tarjota listan vastausvaihtoehtoja esitettyyn ongelmaan sekä todennäköisyydet näiden löytämiensä eri vastausvaihtoehtojen oikeellisuudelle. Watson myös osaa kertoa, minkä aineiston osien perusteella, ja miten, saapui näihin johtopäätöksiinsä – jotka ihminen voi sitten luontevasti tarkistaa. Kun Watson-ottelu oli lähetetty televisiosta ja tulos oli selvä, TED.com haastatteli IBM:n pääkehittäjää David Ferruccia ja joitain muiden alojen asiantuntijoita tämän tuloksen ja tällaisen koneen mahdollisuuksista.

Watsonin kyvyt tiedonhaussa on helppo sekoittaa Googlen hakuun, mutta oleellisesti siinä missä Google vain johdattaa tiedonhakijan vastauksen äärelle tämän hakijan omien navigointi-, lukemis- ja selaamistaitojen kautta, niin Watson kertoo vastauksen välittömästi. Tällöin esimerkiksi hakusanojen kokeilu, sivujen turha selailu ja valikointi, sekä kysymysasettelun rajoitteet eliminoituvat. Samalla Watson osaa selittää vastauksen kysymykseen ”miksi tämä vastaus on valikoitu vastaukseksi”, jota ihmiset usein eivät osaa itse omissa, edes rajatuissa hauissaan erotella. Tämä auttaa päätöksenteossa hyvin erilailla Googlen hakuun verrattuna – tehden siitä muun muassa nopeampaa, perustellumpaa, laajempaan aineistoon kerralla pohjautuvaa sekä vaivattomampaa.

Huomattavasti Watson ei kykene minkäänlaiseen intuitioksi kuvailtavaan toimintaan, vaan luottaa täysin aineistoonsa ja sen salamannopeaan analysointiin – sellaiseen johon se on ohjelmoitu. Watson luottaa ihmisnäkökulmasta tarkasteltuna ja muotoiltuna eräänlaiseen kielen ymmärtämiseen, täydelliseen muistiin ja analysointikeinojensa hyödyntämiseen. Watson kykenee tällä, näkökulmasta riippuen joko suhteellisen kapealla tai suhteellisen laajalla näkökentällä, voittamaan ihmisen niin käsittelynopeudessa kuin keskimääräisessä luotettavuudessa. Joka tapauksessa Watson edustaa yhä korkeintaan ”vain” heikkoa tekoälyä, eikä läpäise esimerkiksi tekoälylle kehiteltyjä testejä, kuten Turingin testiä. Mutta implikaatiot sille ovat silti merkittäviä, erityisesti huomioitaessa, että Watsonin aineisto on muutettavissa hyvinkin laajoiksi erityissanastoista ammentaviksi aineistoiksi, kuten lääketieteen tietokannoiksi, väestörekisteritietokannoiksi, fysiikkaan liittyviksi tietokannoiksi ja niin edelleen. Vaikka IBM painottaa yhä, että Watson ei ymmärrä kieltä edelleenkään täydellisesti, niin se on silti asettanut korkean tavoitteen:

”The goal is to have computers start to interact in natural human terms across a range of applications and processes, understanding the questions that humans ask and providing answers that humans can understand and justify.”

Jeopardya seuraavien 18–24 kuukauden aikana IBM ja ohjelmistoyhtiö Nuance Communications Inc. tekevät yhteistyötä projektissa, jonka tavoitteena on kehittää kaupallinen versio Watsonin kyvyistä kliinisenä päätöksenteon tukijärjestelmänä sairaalapotilaiden diagnoosissa ja hoidossa. Lisäksi yhteistyötä tehdään muiden tahojen kanssa, kun esimerkiksi Columbian yliopiston lääkärit auttavat tunnistamaan kriittisiä kohtia lääketieteessä, jossa Watsonin teknologia saattaisi auttaa jatkokehittelyssä, sekä Marylandin Yliopiston lääkärit kehittävät tapoja, joilla Watsonin kaltainen teknologia voisi parhaiten toimia vuorovaikutuksessa lääketieteen harjoittajien kanssa, tarjotakseen maksimaalisen avustuksen. Kaiken kaikkiaan prosessissa kehitellään Watsonin jatkokehityksen rinnalla interaktiivista ympäristöä, jossa tämän lisäkehitelty koodi pääsisi avustamaan ihmisiä parhaalla mahdollisella tavalla. IBM aikoo myös markkinoida yksinomaan DeepQA-ohjelmistoaan isoille yrityksille miljoonien hinnasta, joka reflektoi ohjelmiston minimivaatimusta, joka on noin miljoonan dollarin hintainen serveri. IBM odottaa hinnan laskevan dramaattisesti seuraavan vuosikymmenen aikana kun teknologia kehittyy. Oleellisesti iso porkkana IBM:n kehitystyössä on myös tämän suuret tuotot tehdessään ja myydessään Yhdysvaltojen hallitukselle joitain isoimpia ja kalliimpia järjestelmiä maailmassa. Watsonin tekniikalle löytyy varmasti kysyntää ja halua myös esimerkiksi tiedustelupalvelu- ja vakoilutyössä, jossa myös tarvitsee käydä laajoja aineistoja läpi ja yhdistellä monimutkaisia tietoja. Myös markkinointitoiminnassa ja bisneksessä, esimerkiksi Internetin käyttäjien toimien analysoimisessa voi kuvitella hyötyä Watsonin erikoisosaamisesta. Vertailun vuoksi Yhdysvaltojen hallituksen järjestämissä kilpailuissa Watsonin tapainen edeltäjä, Piquant, kykeni vastaamaan noin 35 % vihjeistä oikein useiden minuuttien miettimisajan jälkeen – kun taasen Watson kykenee vastaamaan yli 95 % vihjeistä oikein, oppimaan virheistään, sekä formuloimaan vastauksensa sekunnissa.

Watson vie paljon tilaa ja on suhteellisen kallis laite, mutta mikäli tällaisen palvelun saisi edes rajoitetusti integroitua esimerkiksi pilvipalvelun alle, olisivat jo sen implikaatiot tiedonlajittelun ja tutkimustyön kannalta koko maailmassa merkittävät. Oleellisesti Watsoneita kyetään toki valmistamaan Yhdysvaltojen hallituksen ja lääketieteen käyttömahdollisuuksien lisäksi ainakin itsenäisille tutkimuslaitoksille. Tulevaisuudessa kuitenkin tällaisen tiedonkäsittely, -lajittelu ja analysointijärjestelmän rajoittamattomampi pääsy tulee mullistamaan monenkin tutkimusalan aineistonkäsittelyä. Lisäksi aikakautemme dilemmana jo pitkään puhuttanut aineistojen paisuminen ja runsaus, sekä tällaisten käsittely ja lajitteluvaikeus, saattavat helpottua huomattavasti Watsonin kaltaisen järjestelmän avulla. Tiedonjyvien nopea haravointi laajoista aineistoista, käyttäen aineistojen mukaista kielellistä, jopa vain vihjaillen etsivää terminologiaa, on erittäin lupaava asia lähes missä tahansa tiedonkäsittelyyn liittyvässä aspektissa mitä vain voi keksiä.

Yhä eteenpäin aina pysäyttämättömässä ajassa

Ihmisille on ominaista kehittyä aina eteenpäin. Olemme laji, joka luottaa uuden keksimiseen; menneiden sukupolvien perinnön äärellä rajojen aina uudelleen ja uudelleen rikkomiseen. On kuin emme mahtaisi itsellemme mitään uuden pulmanratkaisutehtävän edessä; meidän on kuin pakko ratkaista aina uusia ongelmia ja keksiä yhä uusia keksintöjä. Homo sapiens, älykäs ihminen, on koko olemassaolonsa ajan ollut ennen kaikkea obsessiivinen erilaisiin ongelmanratkaisutilanteisiin, ja ajan kuluessa tämä on tullut yhä näkyvämmäksi. Mennyt vuosisata, ja jopa pelkästään mennyt vuosikymmen, on osoitus siitä, kuinka eksponentiaalista kehityksemme voikaan parhaimmillaan – tai pahimmallaan – olla. Oleellisesti kaikkia keksintöjä voi käyttää niin huonoihin kuin hyviinkin tarkoituksiin – määräävä tekijä ovat vain ihminen ja ihmistoiminta itsessään.

Koneemme ja keksintömme ovat aina olleet tietyillä rajatuilla alueilla kuin omia jatkeitamme, nostaessaan ihmiskykyjämme aina ylemmäs ja ylemmäs. Ne eivät kuitenkaan ole vielä kyenneet kokonaisvaltaisesti mitenkään täysimittaiseen ihmisen aivotoimintaan verrattavaan kognitioon. Vaikka tietynlainen yhtäläisyys asiassa löytyykin, koneet ovat kuitenkin aina ihmisten luomuksia, eivätkä suoraan geenien tuottamia olioita – joskin tämä on toki myös vain tulkintakysymys. Koneet ja niiden olemassaolon voi nähdä myös geenien tuotoksena siinä missä ne ovat ihmisjärjestelmän tuottamia objekteja. Tulevaisuudessa jopa geenien suoranainen hyödyntäminen omiin käyttötarkoituksiimme jopa laskennallisesti voi olla realistinen skenaario, ja entistä relevantimpi eettisen debatin aihe. On jopa esitetty ajatus teknologisesta singulariteetista, joka kuvaa sellaista kohtaa ihmiskunnan teknologisessa kehityksessä, jonka jälkeen teknologinen kehitys ampaisee niin voimakkaaseen eksponentiaaliseen kasvuun, että sen jälkeistä tulevaisuutta on sitä ennen mahdoton ymmärtää tai ennustaa. Tällainen äärinäkemys ei toki ole hirveän suosittu, mutta asettuu mielenkiintoiseen valoon tässä kontekstissa, ja tarjoaa pohdinnan aihetta.

Sci-fi-elokuvissa ja tieteiskirjallisuudessa varoitellaan joskus robottien ja androidien ylivallasta – että ihmisen luomus saattaisi orjuuttaa tämän itsessään. Nykyään kun vietämme suuren osan ajasta Internetissä, samalla jo orjuuttaen itseämme lähes täydellisellä ja alati globaalisti opettavalla ja ihmiskuntaa yhdistävällä tiedon valtatiellä, herää ajatus, että olisiko tämä edes välttämättä huono asia. Toukokuussa 2011, Michiganin yliopistolla kunniatohtorin arvonimen vastaanottanut Applen perustaja Steve Wozniak jopa sivuten varoitti kiitospuheessaan yliopiston nykyisiä opiskelijoita tulevasta tietokoneiden ylivallasta, sanomalla muun muassa ”Olemme luoneet uuden lajin, ei epäilystäkään. Olemme luojia, ja kuten sanoin, teemme itsestämme tarpeettomia”.

Vaikka tietokoneiden ylivalta on luultavasti liioiteltua ja jopa ironisena nähtävä kommentti, ja singulariteetin ollessa sitäkin vieraannuttavampi ajatus, niin mielenkiintoisen perspektiivin asiaan tarjoaa yhä hengissä oleva, yli 50-vuotias Mooren laki. Prosessorivalmistajana tunnetun Intelin perustajan, Gordon E. Mooren (1929-) muotoilema Mooren laki ennustaa yhä paikkansapitävästi, että transistorien lukumäärä kaksinkertaistuu halvasti toteutettavissa mikropiireissä noin kahden vuoden välein. Vaikka tämä ei ole suoraan verrannollista laskutehon kaksinkertaistumiseen – siihen vaikuttaessa lukuisten muidenkin tekijöiden – on tämä kuitenkin kehityksen kannalta hyvin suuntaa antava luku ja ennuste. 1970-luvun alun 2300 transistorin prosessorista on siirrytty Mooren lain mukaisesta muun muassa 2008 vuoden kotikoneiden yli kaksi miljardia transistoria sisältäviin prosessoreihin, ja kehitys on ollut huimaa lähes joka kantilta tarkasteltuna. Ja kehitys jatkuu yhä samaan tapaan eksponentiaalisena.

Watsonin on kuvailtu vastaavan suorituskyvyltään noin 6000 normaalia tehokasta nykyaikaista kotikonetta. Mikäli Mooren laki yhä pitää paikkansa, kuten muun muassa Intelin uudet ”3D”-prosessorit viimeisimpänä innovaationa antavat sille lisäaikaa, niin teoreettisesti kotikoneen laskentateho olisi verrattavissa Watsonin laskentatehoon noin reilussa 20 vuodessa. Siinä vaiheessa kun kaikilla ihmisillä on mahdollisuus Watsonin tapaiseen laskentatehoon kotonaan, jopa taskussaan, on tietojenkäsittely ja tiedon jalostuminen kaikkialla äärimmäisen tehokasta. Toinen aspekti on sitten vielä, että kun kotikoneet kykenevät muun muassa sellaiseen, niin mihin silloin olemassa olevat supertietokoneet kykenevätkään? Ihmisaivojen käsittelykyvyn teoreettinen raja ei ole tällöin enää kaukana – ainoa ongelma on sen ohjelmointi ja muu toteuttamiseen liittyvä pulmanratkaisu, jota jo nykyaikaiset, vielä marginaaliset ja eriytyneet teknologiat, kuten esimerkiksi Watson, robotiikka ja automaatio jo hyvin etäisesti ja pieniin osa-alueisiin erikoistuneina tunnustelevat.

Mikäli 1970-luvulla, kaksikanavaisuuden ja osin vielä mustavalkoisen television laajalti hallitessa, voitiin ajatella maailman olevan 40 vuoden päästä jopa niin erilainen että sitä ei voitu silloin edes täysin kuvitella, niin ei ole mitään syytä olettaa ettäkö 2010-luvun pohdinnat tulevaisuudesta olisivat mitenkään selvänäköisempiä. Ainoa selkeästi erottuvampi ja pitävämpi ennuste on, että mitään varmaa tulevaisuudesta ei voi sanoa, kun ihmisen ongelmanratkaisukyvyn ja -tahdon rinnalla ei ole mitään syytä aliarvioida ainakaan ihmismielen ponnistusten mahdollisuuksia.

________________________________________________________

Lähteitä (linkit tarkistettu 12.5.2011):

Tekoäly http://en.wikipedia.org/wiki/Artificial_intelligence (Tekoälystä)
http://en.wikipedia.org/wiki/John_McCarthy_%28computer_scientist%29 (John McCarthysta)
http://en.wikipedia.org/wiki/Philosophy_of_artificial_intelligence (Tekoälyn filosofiasta)
http://en.wikipedia.org/wiki/Artificial_brain (Keinotekoisista aivoista)
http://en.wikipedia.org/wiki/Computational_theory_of_mind (Komputationalismista)
http://en.wikipedia.org/wiki/Blue_Brain  (Blue Brain Project, joka pyrkii hahmottamaan aivojen toimintaa)
http://en.wikipedia.org/wiki/Strong_AI (Vahvasta tekoälystä)
http://en.wikipedia.org/wiki/A.I._Artificial_Intelligence (Spielbergin elokuvasta)
http://en.wikipedia.org/wiki/Intelligence (Älykkyydestä)
http://en.wikipedia.org/wiki/Consciousness (Tietoisuudesta)
http://en.wikipedia.org/wiki/Fuzzy_logic (Sumeasta logiikasta)
http://arstechnica.com/gaming/news/2011/01/skynet-meets-the-swarm-how-the-berkeley-overmind-won-the-2010-starcraft-ai-competition.ars  (StarCraft AI:sta)
http://www.cs.tut.fi/~elomaa/teach/2556 (TTY:n AI-kurssi, sisältää kalvot)
Watson: http://www.framingbusiness.net/archives/1287 (Chomskyn mietteitä tekoälystä ja Watsonista)
http://en.wikipedia.org/wiki/Computer_chess#Chronology_of_computer_chess (Tietokoneohjatun shakin kehityksen kronologia)
http://en.wikipedia.org/wiki/Chess_%28Northwestern_University%29 (Atkinin ja Slaten shakkiohjelmaan liittyen)
http://en.wikipedia.org/wiki/Deep_Blue_%28chess_computer%29 (Deep blue –shakkitietokoneesta)
http://en.wikipedia.org/wiki/Deep_Blue_versus_Garry_Kasparov (Deep Blue -koneen ja Kasparovin kohtaamisesta)
http://en.wikipedia.org/wiki/Game_Over:_Kasparov_and_the_Machine (”Game Over” –dokumentista)
http://en.wikipedia.org/wiki/Watson_computer (Watsonista)
http://en.wikipedia.org/wiki/Jeopardy! (Jeopardysta)
http://en.wikipedia.org/wiki/Turing_test (Turingin testistä)
http://en.wikipedia.org/wiki/Ibm (IBM-yhtiöstä)
http://en.wikipedia.org/wiki/Nuance_Communications (Nuance Communications Inc. -yhtiöstä)
http://www.research.ibm.com/compsci/spotlight/nlp/ (Menneestä Piquant-projektista jonkinlaista mainintaa)
http://www.youtube.com/watch?v=ZLdkJpAtt1I (Jeopardy! – tietovisa, jossa Watson kilpaili)
http://www.ted.com/pages/593 (IBM:n pari videota Watsonista)
http://www.youtube.com/watch?v=uWHG7DMLurE (IBM:n “Perspectives on Watson: Healthcare”)
http://www.youtube.com/watch?v=_429UIzN1JM (IBM:n “Perspectives on Watson – Ambiguity”)
http://www.youtube.com/watch?v=FC3IryWr4c8 (IBM:n haasteen esittelyvideo)
http://www.youtube.com/watch?v=3G2H3DZ8rNc (IBM:n ”Building Watson – A Brief Overview of the DeepQA Project”)
http://www.youtube.com/watch?v=d_yXV22O6n4 (engadgetin video “How IBM’s Watson supercomputer wins at Jeopardy, with IBM’s Dave Gondek”)
http://blog.ted.com/2011/02/18/experts-and-ibm-insiders-break-down-watsons-jeopardy-win/  (TED.comin haastattelut haasteen onnistumisen jälkeen)
http://www.stanford.edu/class/cs124/AIMagzine-DeepQA.pdf (”Building Watson: An Overview of the DeepQA Project”. AI Magazine -lehden artikkeli Watsonista, syksyltä 2010)
https://www.nytimes.com/2010/06/20/magazine/20Computer-t.html (NY Times: “What is IBM’s Watson?”)
http://washingtontechnology.com/articles/2011/02/17/ibm-watson-next-steps.aspx (Washington Technology: “IBM’s Watson heads to medical school”)
http://en.wikipedia.org/wiki/Clinical_decision_support_system (Clinical decision support system, jollaiseksi Watsonia muun muassa kaavaillaan jatkokehityksessä lääketieteen saralla)
http://www.research.ibm.com/deepqa/ (IBM:n virallinen sivu Watsonille)
Tulevaisuus: http://en.wikipedia.org/wiki/Technological_singularity (Teknologisesta singulariteetista)
http://sektori.com/uutinen/wozniak%3A-tietokoneet-tekev%C3%A4t-ihmisest%C3%A4/9823/  (uutinen Wozniakin puheista)
http://en.wikipedia.org/wiki/Moore%27s_law (Mooren laki)
http://www.bbc.co.uk/news/technology-13283882  (Intelin “3D”-prosessorista)
http://en.wikipedia.org/wiki/Automation (Automaatiosta)
http://en.wikipedia.org/wiki/Robotics (Robotiikasta)
Mainokset

Vastaa

Täytä tietosi alle tai klikkaa kuvaketta kirjautuaksesi sisään:

WordPress.com-logo

Olet kommentoimassa WordPress.com -tilin nimissä. Log Out / Muuta )

Twitter-kuva

Olet kommentoimassa Twitter -tilin nimissä. Log Out / Muuta )

Facebook-kuva

Olet kommentoimassa Facebook -tilin nimissä. Log Out / Muuta )

Google+ photo

Olet kommentoimassa Google+ -tilin nimissä. Log Out / Muuta )

Muodostetaan yhteyttä palveluun %s