Archive
ISSN 1214-8725
Číslo/Ročník/Rok: 1/XI/2014 - Winter 2014

Filosofické aspekty umělé inteligence v kontextu pedagogických paradigmat (Článek)

Autor: Michal Černý
Abstract: Philosophical Aspects of Artificial Intelligence in the Context of Educational Paradigms. (Article) – Paper discusses the artificial intelligence and its definition at all in the context of the application in education. Presents basic schematic procedures based on symbolic functionalism, connectivism or robotic functionalism. It provides a broader synthesis within the fundamental issues related to the philosophy of education. At the end of the discussion the possibility of replacing the teacher computer system.

Keywords: artificial intelligence, constructivism, education, ethics, Turing machine

 

Klíčová slova: umělá inteligence, konstruktivismus, pedagogika, etika, Turingův stroj

 

PDF version (123 KB)

 

 

Nabídnout jednu obecnou, uspokojivou a všeobjímající odpověď na otázku, co vlastně umělá inteligence je, není jednoduchých úkolem. (Poole, Mackworth, Gobel 1998: Chapeter 1) Z hlediska jazykové analýzy je nutné vymezit pojmy umělý a inteligence. Anglický pojem artificial může být přeložen nejen jako umělý či nepravý, ale také jako líčený, což v sobě může zahrnovat již jakési předporozumění otázce, zda počítače mohou myslet. Podle této konstrukce nikoli, neboť jde jen o jakýsi klam, třebaže dobře provedený. Také překlad slova jako umělý není zcela bez problémů – vymezuje hranici mezi přirozeným a umělým, mezi první a druhou přírodou. To samo ale není úplně možné. A jestliže bychom například v neuronových sítích (kterým budeme věnovat pozornost později) dokázali jednotlivé prvky vytvořit z organických sloučenin, bude taková výpočetní soustava inteligencí přirozenou, nebo umělou?

 

Najít hranici mezi první a druhou přírodou nemusí být vždy triviální problém. Pokud jde o technické realizace, pak jej není nutné nějak zvláště reflektovat, neboť artificial intelligence označuje specifickou množinu technologických či programátorských technik, o nichž societatem scientific nemusí vést spory. Pro pojetí sociální, pedagogické i filosofické ale hraje toto vymezení důležitou úlohu. Hranice umělých objektů a přirozených struktur jsou s rozvojem lékařské techniky stále méně zřejmé – kardiostimulátor, umělé rohovky či kochleární implantát jsou součástí těl řady lidí, kterým jejich přirozenost vztahující se k integritě jejich osoby nemůžeme upřít.

 

Aniž bychom na tomto místě chtěli nabízet nějaké jednoznačné řešení problému, je třeba odvrhnout materialistické i jednoduše schematické koncepty dělení přírody a techniky či přírody a společnosti. Člověk přirozeně nežije v prostředí nespoutané přírody, ale v kontextu měst a vesnic, které si utváří ve svůj vlastní prospěch. Epos o Gilgamešovi ukazuje, že zatímco město, tedy prostředí vytvořené člověkem, je pro autora (2. tisíciletí př. Kr.) symbolem řádu, bezpečí a místem, kde je život zajištěn, tak příroda za hradbami je obrazem zla, nebezpečí a chaosu. (Sedláček 2012: 47) Také tento antropologický fenomén je třeba v případě úvah o přirozenosti či nepřirozenosti určitých fenoménů reflektovat.

 

Druhým pojmem je otázka inteligence (z latinských slov inter-legere, tedy rozlišovat, poznávat či chápat – což jsou ale vzájemně ne zcela kompatibilní pojmy), která také nemá jednoznačnou definici. Signifikantní pro moderní přístupy v oblasti práce s inteligencí, především v psychologii a pedagogice, je snaha fragmentovat ji do určitých dílčích oblastí. Gardner například definuje inteligenci: tělesnou; rytmickou a hudební; jazykovou; týkající se vnímání; interpersonální; emoční; přírodovědecká; logická a matematická; duchovní; osobnostní. (Slavin 2009: 117; podrobněji viz Gardner 1993)

 

Pokud bychom k problematice umělé inteligence přistupovali na základě tohoto konstruktu, mohli bychom říci, že v řadě ohledů dosahují stroje podstatně lepších výsledků než člověk, respektive průměrně inteligentní jedinec – například v oblasti numerické manipulace, paměti či schopnosti postřehnout a rozlišit podněty v prostoru. Takto vytyčený projekt budování umělé inteligence může být zajímavý v tom, že softwarová řešení se rozpadnou do méně komplexních úloh, které spolu budou jen volně interagovat. Vyvstává ale otázka, zda je takové dělení inteligence jen vhodnou pedagogickou či diagnostickou metodou, nebo skutečným kvalitním popisem toho, co pod pojmem inteligence přirozeně chápeme. Z výše uvedených důvodů se musíme přiklonit k první variantě.

 

Z tradičních psychologických definic je možné uvést Sternovu: „Inteligence je všeobecná schopnost individua vědomě orientovat vlastní myšlení na nové požadavky, je to všeobecná duchovní schopnost přizpůsobit se novým životním úkolům a podmínkám.“ Guilfordovu: „Inteligence je schopnost zpracovávat informace. Informacemi je třeba chápat všechny dojmy, které člověk vnímá.“ Nebo Wechslerovu: „Inteligence je vnitřně členitá a zároveň globální schopnost individua účelně jednat, rozumně myslet a efektivně se vyrovnávat se svým okolím. (Praus 2014) Všechny tři uvedené pokusy o definici pracují s pojmem schopnost a vyjadřují se v duchu empirické tradice o významu inteligence jako reakčního prvku s okolím. Jejich problémy například v oblasti schopností matematického vědění, abstraktních teorií filosofie či teologie jsou zřejmé.

 

Porozumění a znalost

 

Především z praktických důvodů se jeví jako účelné otázku po inteligenci převést na analýzu porozumění, která se tradičně dělí na slabou a silnou. Silné porozumění je velmi specifické, vyznačuje se schopností řešit jeden konkrétní problém, zatímco slabé porozumění je otázkou obecného poznání širších základů. Druhé jmenované pak může člověk použít pro budování formalismů, modelů a teorií. V neposlední řadě lze identifikovat určitou střední cestu, která chápe porozumění jako korespondující reakce pomocí správné reprezentace znalostí a aproprietního odvozovacího mechanismu na správné podněty. (Pěchouček 2004)

 

Druhým důležitým schematismem je problematika tacitních znalostí, tedy takových znalostí, které člověk má, ale nedokáže je aktuálně artikulovat. (Collins 2010: 1–5) Vzhledem k tomu, že vyjadřovací síla přirozeného jazyka je podle Chomského strukturalismu typu 1, lze uvažovat o tom, že právě systém tacitních znalostí je příkladem jazyka typu 0. (Chomsky 1959: 143) To, že některé tacitní znalosti mohou být artikulovány, tedy transformovány na znalosti explicitní, (Collins 2010: 6) pak dobře koresponduje se skutečností, že jazyk typu 1 je podmnožinou jazyka typu 0. Ač existuje celá řada způsobů, jak získávat tacitní znalostí (například systematickým pozorováním), které se užívají u expertních systémů, nejde zřejmě o vyčerpávající metody. Není bez zajímavostí, že v informatice lze pracovat s konceptem Turingova stroje, který by umožnil jazyk typu 0 zpracovávat. (Chomsky 1959: 139)

 

Takto koncipované úvahy mají několik slabých míst. První je důkazová – tacitní znalosti mohou být určitým způsobem vždy vhodně artikulovány (ač to není běžně realizováno) a tudíž nemá smysl uvažovat o jejich vyšší vyjadřovací síle. Naopak nemusí jít o frázový jazyk, ale formu nejazykovou případně ještě vyššího řádu, o kterých se běžně neuvažuje. Pro přesnou klasifikaci tacitní znalosti jako jazyka typu 0 neexistuje exaktní důvod. Další problémy mohou být spojené s praktickým návrhem systému, který by takový jazyk uměl rozpoznat. Jelikož jsme schopni sami pracovat s jazyky typu 1, bylo by takové programování mimořádně náročné, pokud vůbec možné. Komplikací může být také aktuální technologická možnost dostatečně výkonně modelovat Turingův stroj.

 

Tři přístupy ke konstrukci umělé inteligence

 

Ke způsobu implementace umělé inteligence lze přistupovat celou řadou dílčích konceptům, které jsou podobné různých pedagogickým paradigmatům – u některých jde o maximálně kvalitní zvládnutí funkčnosti, aniž by se vyžadovalo poznání, jiné usilují o budování systémů, které jsou schopné se učit atp. Dělení přístupů k tvorbě umělé inteligence z hlediska určitých fundamentálních zásad lze identifikovat celou řadu přístupů. V následujícím budeme vycházet z trojice, která má právě k pedagogickým a výchovným teoriím nejsnáze reprodukovatelný vztah. (Pěchouček 2004)

 

Symbolický funkcionalismus či strukturní funkcionalismus chápe umělou inteligenci jako program, který provádí určitý spočetný počet kroků, které vedou k dostatečně relevantní reakci systému. Jednotlivé komponenty takového systému mají odlišnou roli a vzájemně spolu kooperují. Takový koncept jen nejčastěji spojován s Turingovým strojem, kde jsou tyto požadavky realizovány pomocí přechodových funkcí, které berou do úvahy jak podnět z okolí (symbol na pásce), tak také svůj vnitřní stav.

 

Formálně lze Turigův stroj popsat jako uspořádanou šestici: M = (Q, Σ, Γ, δ, q0, F), kde Q je konečná množina stavů, F je množina koncových stavů q0 je počáteční stav, oba z množiny Q. Γ je konečná množina páskových symbolů a Σ je množinou vstupních symbolů takovou, že tvoří neprázdnou podmnožinu Γ. Tímto popisem je zaručena možnost existence paměti, chápání kontextu a interakce s okolím. Klíčová je pak přechodová funkce δ: (Q – F) x Γ → Q x Γ x {–1,0,1}, která pracuje tak, že načte znak z pásky a na základě Q může něco zapsat na pásku místo stávajícího znaku a posunout čtecí hlavu o jedno políčko na pásce doleva, doprava nebo ji nechat na místě. [1]
 

Stroj je na počátku ve stavu q0 a jestliže není obsaženo v F, tak načte symbol z pásky a postupuje podle přechodové funkce. Turingův stroj může být dvojího druhu – buď deterministický, tedy takový, pro který existuje vždy pro levou stranu přechodové funkce jen jedna pravá strana, nebo nedeterministický, kdy je v jedné konfiguraci možné více přechodů. V takovém případě se náhodně vybere jeden, který bude realizován. Platí přitom, že libovolný algoritmus je možné vždy převést na činnost takového stroje. (Zalta 2003)

 

Symbolický strukturalismus tedy odráží jakousi běžnou představu toho, jak by měla umělá inteligence vypadat. Cílem vědy v této oblasti je nadefinovat dostatečně dobře přechodové funkce pro konkrétní možné vstupy. Díky spočetnosti symbolů je stroj možné postavit tak, že nikdy nedojde na situaci, že nebude umět nijak postupovat dále. Takto koncipovaný model artificial intelligence je myšlenkově velice podobný kognitivistické škole v pedagogice. Cílem výuky či programování je naučit stroj jednoznačným pokynům, které když bude dodržovat, dospěje ke správným výsledkům, které v tomto modelu vždy existují a jsou explicitně empiricky dostupné.

 

Z pohledu antropologického je možné říci, že člověk v takovém modelu vzdělávání a výchovy jen soutěží se strojem, zda má dostatečně velkou množinu přechodových funkcí či nikoli. Vzdělávání je jen otázkou její lepší implementace či konzervativního rozšiřování.

 

Konekcionismus představuje zcela jiný myšlenkový koncept, který se snaží inspirovat u struktury lidského mozku. Výpočty nejsou realizovány pomocí posloupnosti příkazů či přechodovou funkcí, ale sítí. V lidském mozku existují neurony, které provádějí určité elementární výpočty, a synapse mezi nimi. Žádný jednotlivý neuron neví, jaký je výsledek, ale na základě elektrických (v případě mozku elektrochemických) signálů, které k němu přicházejí z různých okolních neuronů, je schopen se efektivně rozhodovat.

 

Typické pro tímto způsobem postavenou síť je, že neexistují dopředu dané posloupnosti příkazů s očekávaným správným výsledkem. Síť obdrží určité informace z okolí, které se převedou na elektrický signál. Každý neuron má obvykle libovolný počet vstupů a jen jeden výstup. Proběhne v něm interference jednotlivých signálů, která může být modulována a postupuje dále. (Dayhoff, Deleo 1616–1620)

 

Každému zdroji lze přitom přiřadit váhu, kterou má oproti ostatním, takže při konstrukci neuronových sítí se může dobře použít principů vícehodnotové logiky. Fundamentální pro tento koncept je schopnost se učit. Síť je schopná každým průchodem vzruchu svoji činnost optimalizovat a činit efektivní. Ač mohou kritici tohoto přístupu namítnout, že nejde o nic jiného, než aplikaci statistiky, lze jen obtížně předpokládat, že by lidský mozek na fyziologické úrovni pracoval jinak. (Yegnanarayna 2009: 391)

 

Neuronové sítě je možné implementovat buď softwarově – pak jde jen o zajímavý model pro studium chování této struktury, který se ale převádí na posloupnost příkazů, tedy degeneruje na symbolický funkcionalismus nebo hardwarově. Příkladem může být SyNAPSE, což je čip od IBM, který se umí sám učit (např. natáčet pálku v ping-pongu). Obsahuje jen 265 neuronů a 65536 nebo 262144 synapsí. Lze očekávat, že s přibývajícím počtem synapsí i neuronů bude výkon tohoto systému rychle růst. (Brumfiel 2011)

 

Z hlediska pedagogických teorií lze vypozorovat velkou podobnost s konstruktivismem či konektivismem. V obou konceptech není předem dáno řešení, důraz je kladen na schopnost se učit, identifikovat správné a zavrhovat špatné cesty. Konektivismus je pak zajímavý tím, že jako učící se (i znalostní) strukturu nevidí jednotlivce, ale celou síť. (Brdička 2008)

 

Robotický funkcionalismus vychází z myšlenek behaviorismu, když inteligentním chováním je zde chápána rozumná interakce mezi systémem, prostředím a úlohou. Cílem je vytvořit stroj nebo program, který bude mít dostatečnou instrumentální dovednost – robotický vysavač umí dobře uklidit libovolný byt, výrobní linka sestavit automobil, lékařský systém dávkovat léky či řídit ventilaci pacienta. Oproti behaviorismu tak dochází k jediné záměně, totiž žáka a systému. V obou případech jde ale o „black box“ objekty, jejichž vnitřní struktura či motivace k chování není zajímavá.

 

Takto koncipovaný model inteligence zřejmě nejvíce odpovídá oné variantě artificial, jež označuje klamání. Není zřejmě nutné dokazovat, že prostá instrumentální znalost či dovednost nemůže být spojována s inteligencí jako takovou, ač je třeba říci, že ze všech tří uvedených přístupů nabízí nejpřímočařejší a nejrychlejší výsledky s jednoznačným ekonomickým potenciálem.

 

Na druhou stranu lze říci, že tak jako behaviorismus vede ke znalosti a dovednosti, ale nevede k myšlení a pochopení, k schopnosti řešit problém, tak stejné problémy má také robotický funkcionalismus. (Brdička 2008)

Affective computing

 

Zatímco doposud jsme se věnovali problematice racionalistické tradice, kdy počítač byl chápán jako emocemi nezatížený stroj, je třeba říci, že pro reálnou komunikaci člověka jsou emoce mimořádně důležité, někdy se dokonce hovoří o emoční inteligenci. Z tohoto důvodu se začala rozvíjet také oblast Affective computing, tedy počítačového zpracování emocí. Pro naši problematiku je vhodné ji rozdělit do dvou kategorií – jednak jde o schopnost detekovat emoce člověka, který se systémem interaguje, a také na oblast vyjádření emocí ze strany počítače.

 

Zatímco Descartes se je snažil označit jako iracionální a ve své podstatě nechtěné, dnes víme, že jsou součástí chování i rozhodování stejně jako racionální analýza. Komunikovat s člověkem, který nejen neprojevuje své emoce, ale také vůbec nechápe emoce druhých, je mimořádně nepříjemné a složité. Z tohoto hlediska lze oblast počítačového zpracování emocí označit za jednu z nejdůležitějších v informatice vůbec.

 

Jednou z možných cest pro detekci emocí je analýza řeči. Například při strachu, hněvu či radosti mluvíme rychleji a hlasitěji, avšak při nudě, smutku či únavě je mluva pomalejší a méně zřetelná. Pokud máme systém, který pracuje s jedním člověkem relativně dlouhou dobu, lze pomocí Fourierovy analýzy tyto změny identifikovat a provádět základní rozčlenění dle nálad. Problémem je, že radost a hněv se může projevovat relativně velice podobně, ale na základě takto hrubé analýzy je velmi těžké tyto dva stavy přesně rozlišit.

 

Běžně se neměří jen rychlost a hlasitost, ale také průměrná výška hlasu, rozsah výšek, kvalita, artikulace či změna výšky. Kombinace všech těchto parametrů by měla být pro základní emoce dostatečná, ale vždy záleží také na dalších determinantech, jako je osobnostní profil mluvčího, zda hovoří v rodné či cizí řeči, nebo třeba zda není pod vlivem nějaké návykové látky či alkoholu. Roli může hrát také například přízvuk, nachlazení, bolest zubů a řada dalších vlivů.

 

Druhou metodou pro práci s emocemi je analýza obličeje a mimiky, která je u většiny národů vnímána jako běžná součást komunikačního procesu. Zachycení a rozpoznání výrazů obličeje může být realizováno nejrůznějšími metodami. Zřejmě nejjednodušší je optické snímání a sledování s překryvem v určitých korpusech výrazů. Paul Ekman dělí výrazy obličeje podle šesti základních emocí: radost, hněv, údiv, znechucení, strach a smutek. Všechny další emoce jsou součtem těchto základních v nějaké umenšené míře (například 20 % radosti + 60 % údivu + 20 % strachu atp.). (Jarolímová 2007: 10)

 

Mimo pouhé observační metody lze využívat také senzorické sítě a detektory, které se dnes běžně užívají i na nespolehlivých a nechvalně známých detektorech lži. Pokud je člověk nervózní, obvykle se potí, což se projevuje na jeho galvanickém odporu kůže, který lze relativně snadno měřit. Galvanický odpor lze měřit pouze dotekem, což nijak nesnižuje komfort uživatele. Z tohoto hlediska jde o užitečnou technologii. (Kopeček 2013)

 

Tímto způsobem mohou počítače relativně dobře rekonstruovat emoce uživatele a podle nich pak volit například optimální strategii komunikace. Druhou oblastí je projevování emocí ze strany systému či programu. Zde se objevují dva dílčí přístupy. Jednak lze chování systému měnit podle určité emoční škály, kterou lze rekonstruovat například podle emocí uživatele nebo nějakou sémantickou analýzou komunikace. Druhou významnou složkou pak může být měnící se chování nějakého agenta či jiného programu, který vystupuje v roli informačního rozhraní k uživateli.

 

Počítače skutečně mohou těžko něco pociťovat v tom slova smyslu, jak to chápeme u lidí, ale emoce mohou efektivně jak analyzovat, tak také modelovat. Zajímavou oblastí, jejíž využití je zatím otázkou, by bylo zpracovávání emocí v neuronových sítích, které by na signály mohly reagovat.

 

Mohou artificial intelligence systémy nahradit učitele?

 

Ač by se z výše uvedeného mohlo zdát, že uvedené možnosti kombinující umělou inteligenci a počítačové zpracování emocí, mohou vytvořit dojem myslícího stroje, není tomu tak. Zřejmě nejznámější test tohoto typu je Turingův test. [2] Ten je založený na myšlence, že živý člověk (A) komunikuje textově se strojem a jiným živým člověkem (B). A musí zjistit, která z komunikujících entit je člověk, a která stroj. Zatím vždy se podařilo živého člověka identifikovat, a to i přes to, že pokusy se systémem ELIZA Josepha Weizenbauma (Weizenbaum 1966: 36–45) z poloviny šedesátých let, který vystupoval v roli psychoterapeuta, vzbuzovaly velké naděje.

 

I kdyby se nakonec podařilo vytvořit diskusní systém, který nebude rozeznatelný od člověka, nemusí jít o argument, že takový systém je inteligentní, jak ukazuje známý problém čínského pokoje: Člověk, který nerozumí ani slovo čínsky, je usazen do místnosti plné knih a návodů, jakým způsobem správně odpovídat na čínské otázky. Čínština obsahuje konečné množství slov (pro běžnou konverzaci nebo noviny jich není potřeba více než několik málo tisíc) a také věty mají konečný počet prvků. Otázek je tedy konečně mnoho. Pokud dostane pod dveřmi vzkaz napsaný v čínštině, je pomocí knih a návodů schopen najít odpověď a vrátit ji nazpět. Tento cyklus se přitom může opakovat libovolně dlouho. Je schopnost člověka najít odpověď na otázku projevem porozumění? Nebo alespoň znalosti čínštiny? V zásadě jde o tutéž činnost, kterou provádějí nástroje na optické rozpoznání textu – hledají v databázi se kterým vzorem je předloha nejpodobnější a vrátí odpověď v podobě digitální formy symbolu. Odpovědí tedy zřejmě je, že ne, neboť jde o pouhou instrumentální dovednost (která koreluje s robotickým funkcionalismem).

 

Otázka, zda mohou systémy myslet, je v současné době otevřená – na jedné straně jsou algoritmy či sítě, které se umí učit, vyhledávat nové informace a pracovat s učitelem i vlastní chybou, mohou analyzovat a projevovat emoce a mají mimořádně dobrou paměť. Na straně druhé je ale otázka, zda tím, že disponují pouze explicitními znalostmi (či daty?), nejsou o tolik ochuzeny, že o myšlení nemůže být řeč. Tento problém ponecháme bez odpovědi a budeme se soustředit na otázku specifičtější – mohou takto koncipované systémy nahradit učitele? A jsou vhodné pro vzdělávání?

 

Zajímavým tématem, které se může v kontextu artificial intelligence systémů objevit, je otázka zodpovědnosti. Jestliže nějaký algoritmus bude pracovat špatně, kdo za špatné výsledky ponese zodpovědnost? On sám – například vlastním smazáním nebo podobným aktem? Bude to programátor, prodejce, ten kdo systému připojil databázi explicitních znalostí? Tuto otázku je třeba ve filosofii výchovy vnímat jako velice důležitou, neboť v ní nejde jen o rovinu majetkoprávní, ale především etickou. Zatímco v případě živých učitelů může být tato odpovědnost vyvozována jednak kontrolou nějaké vnější autority, ale také především autonomní morálkou pedagoga, v případě umělých strojů nic takového není ani principiálně možné.

 

Také absence tacitních znalostí omezuje použití umělé inteligence tam, kde je vyžadována kreativita, intuice či empatie. Pedagogika není prostým aplikováním zásad statistiky či formálně popsaných pouček, ale především vědou antropologickou a vedoucí k maximální personalizaci edukačního procesu. V tomto ohledu lze říci, že artificial intelligence člověka nemohou nahradit a je otázka, zda kdy nebo zda vůbec bude něco podobného možné.

 

Jestliže se v pedagogice často rozlišují tři roviny výchovy – totiž znalosti, dovednosti a postoje, lze si velice dobře představit, že kvalitně provedený systém bude schopen první dvě oblasti zastávat relativně kvalitně. Analýza chyb studenta, možnost identifikace jeho zájmů a možností, přizpůsobení probírané látky na míru, to jsou všechno oblasti, které lze v principu technologicky realizovat. Ale postoje žádný systém předávat neumí. Chybí mu existence osoby, ke které by mohl svůj hodnotový systém vztáhnout. Jistě mohou existovat přístupy, které budou mít za úkol simulaci postojů či hodnot, ale nebude za nimi příběh života pedagoga, což snižuje jejich přenositelnost na studenty.

 

Závěr

 

Klíčovým východiskem v otázce, zda mohou stroje s umělou inteligencí nahradit učitele, nabízí pedagogická paradigmata či – Foucaultovým jazykem – epistémy. V případě kognitivisticky a behavioristicky orientovaného paradigmatu to bezpochyby možné je. Role učitele může být redukována na automat a v řadě vzdělávacích systémů se to již běžně děje. Příkladem může být Code Academy, která učí programovat, a to bez existence reálného učitele nebo individuální práce se studentem. (Ma 2013: 338–339) Ostatně celý koncept Massive Open Online Course (MOOC), tedy kurzů pro desítky tisíc studentů, na těchto principech staví a systémy s umělou inteligencí je zde nutné používat. (Podrobněji viz Klein, Moon a Picard: 2002.) Čím budou lepší, tím kvalitnější bude také samotný vzdělávací proces.

 

Naopak u konstruktivismu si lze aplikaci umělé inteligence – pokud nejde o obří neuronové sítě – představit jen stěží. Důraz kladený na interakci pedagoga jako kooperátora a kolaboranta se studentem, slovní hodnocení a kompetence místo prostého drilu její užití silně omezují.

 

Zdá se, že nevyhnutelným trendem ve výchově a vzdělávání bude stále větší rozšiřování možností artificial intelligence aplikací tak, aby čistě vědomostní či pamětné části výuky mohli studenti přijímat maximálně personalizovaně, vlastním tempem a možnostmi. To otevírá velký prostor jak pro inklusi ve vzdělávání, tak také pro práci s nadanými žáky. Na druhou stranu by zde měl být aktivní prvek učitele, který bude pracovat konstruktivisticky, zdůrazňovat a rozvíjet osobnostní i odborné schopnosti studentů, což musí dělat s ohledem na systematickou práci s tacitními znalostmi. Bez nich budou jeho studenti jen obtížně konkurovat strojům, které možná nedokážou v pravém slova smyslu myslet, ale to nijak neomezuje jejich funkčnost. Domnívám se, že právě systematický rozvoj schopnosti jak analyticky tak synteticky myslet, bude pro následující desetiletí pro pedagogiku i filosofii výchovy tématem zcela stěžejním.

 

POZNÁMKY

 

[1] Podrobněji o Turingově stroji a jeho vyjadřovací síle viz Shannon 1957.

 

[2] Test vychází z myšlenek Alana Turinga, které publikoval v roce 1950. (Viz Turing 1950)

 

SEZNAM LITERATURY

 
BRDIČKA, Bořivoj. Konektivismus – teorie vzdělávání v prostředí sociálních sítí. Metodický portál: články [online]. 2008 [cit. 2013-06-29]. ISSN 1802-4785. Dostupné z WWW:

< http://spomocnik.rvp.cz/clanek/10357/ >.

 

BRUMIFEL, Geoff. Inside IBM’s cognitive chip. Nature international weekly journal of science [online]. 2011 [cit. 2013-06-29]. ISSN 0028-0836. Dostupné z WWW:

< http://www.nature.com/doifinder/10.1038/news.2011.486 >.

 

COLLINS, Harry. Tacit and explicit knowledge. Chicago: University of Chicago Press, 2010.

ISBN 978-02-260-0421-1.

 

DAYHOFF, Judith E., DELEO, James M. Artificial neural networks. Cancer, 2001, vol. 91, is. 8,

pp. 1615–1635. ISSN 1097-0142.

 

GARDNER, Howard. Frames of mind: the theory of multiple intelligences. New York: BasicBooks, 1993. ISBN 04-650-2510-2.

 

CHOMSKY, Noam. On certain formal properties of grammars. Information and control, 1959, vol. 2, is. 2, pp. 137–167. ISSN 0019-9958.

 

JAROLÍMKOVÁ, Hana. Počítačové zpracování emocí [online]. Brno, Masarykova univerzita, 2007, [cit. 2014-03-16]. Diplomová práce, Masarykova univerzita, Fakulta informatiky. Dostupné z WWW:

< http://is.muni.cz/th/60784/fi_m/ >.

 

KLEIN, Jonathan, MOON, Youngme, PICARD, Rosalind W. This computer responds to user frustration: Theory, design, and results. Interacting with computers, 2002, vol. 14, is. 2, pp. 119–140. ISSN 0953-5438.

 

KOPEČEK, Ivan. Počítačové zpracování emocí: Affective computing [cit. 2014-03-16]. Dostupné z WWW: < http://www.fi.muni.cz/~kopecek/socin.htm >.

 

MA, Hong. Tech Services on the Web: Codecademy. Technical Services Quarterly, 2013, vol. 30, is. 3, pp. 338–339. ISSN 0731-7131. Dostupné z WWW: < http://www.codecademy.com >.

 

PĚCHOUČEK, Michal. Úvod do filosofie umělé inteligence. Kybernetika a Umělá Inteligence [online]. 2004 [cit. 2014-03-16]. Dostupné z WWW:
< http://cyber.felk.cvut.cz/gerstner/teaching/kui/kui-phil.htm >.

 

POOLE, David, MACKWORTH, Alan, GOEBEL, Randy. Computational Intelligence: A Logical Approach. Oxford: Oxford University Press, 1998. ISBN 978-01-951-0270-3.

 

PRAUS, Petr. Inteligence a její měření. MENSA: Časopis Mensy České republiky [online]. 2013 [cit. 2014-03-16]. Dostupné z WWW: < http://casopis.mensa.cz/veda/inteligence_a_jeji_mereni.html >.

 

SEDLÁČEK, Tomáš. Ekonomie dobra a zla: po stopách lidského tázání od Gilgameše po finanční krizi. Praha: 65. pole, 2012. ISBN 978-80-87506-10-3.

 

SHANNON, Claude E. A universal Turing machine with two internal states. Automata studies, 1957, vol. 34, pp. 157–165.

 

SLAVIN, Robert E. Educational psychology: theory and practice. Boston: Pearson, 2009.

ISBN 02-055-9200-7.

 

TURING, Alan M. Computing machinery and intelligence. Mind, 1950, pp. 433–460. ISSN 0026-4423.

 

Turing Machines. In: Stanford Encyclopedia of Philosophy [online]. Summer 2003 Edition: Edward N. Zalta (ed.), last modified on 27. 5. 2003 [cit. 2013-06-29]. [This was the original version of the present entry, written by the Editors of the Stanford Encyclopedia of Philosophy.] Dostupné z WWW: < http://plato.stanford.edu/archives/sum2003/entries/turing-machine/ >.

 

WEIZENBAUM, Joseph. ELIZA – a computer program for the study of natural language communication between man and machine. Communications of the ACM, 1966, vol. 9, is. 1, pp. 36–45. ISSN 0001-0782.

 

YEGNANARAYANA, Bayya. Artificial neural networks. PHI Learning Pvt. Ltd., 2009.
ISBN 978-81-203-1253-1.

 

(Mgr. Michal Černý působí jako metodik v Kabinetu knihovnictví a informačních studií na FF MU a na Katedře fyziky PedF MU.)


 
 www.filosofie.cz