donderdag 8 maart 2018

'Artificial Intelligence: it will kill us | Jay Tuck | TEDxHamburgSalon'

Het is logisch, dat o.a. Google zeer is geïnteresseerd in AI (Artificial Intelligence). Een interessante TED presentatie van Jay Tuck die een en ander vertelt over de reeds mogelijkheden van elektronische informatie.
 
Computers verzamelen zulk een, boven elk menselijk vermogen, uitgaande stroom van informatie, en werkt samen in wereldwijde verbindingen, dat deze gigantische informatienetwerken op het moment ze zelfstandig zullen handelen, voor de mens niet meer bevattelijk zijn. 
 
De creators - de mensen dus - die deze mogelijkheden scheppen verliezen gaandeweg de controle over datgene wat AI gaat doen. Omdat ze over ontzaglijk veel informatie beschikken - die de mens gewoonweg overstijgt - worden ze onberekenbaar en kunnen zo mogelijk een eigen aard van intelligentie ontwikkelen. Dit is op zich niet al te moeilijk te bevatten.
 
Wanneer je de beperkende limiet van mensen vergelijkt met deze wereldwijde informatiestroom, (waar Tuck allerlei voorbeelden van geeft, zo kan een mens niet meer dan één persoon volgen, maar deze netwerken volgen gaandeweg de hele wereld in elke stap en verzamelen alle kennis over alles en iedereen) , dan is het bevattelijk dat zij mogelijk op een manier gaan handelen die niet meer volgbaar is.
 
Interessant is dit in 'filosofisch' opzicht. Want feit is, dat deze informatienetwerken alle mogelijke informatie verzamelen aangaande de mens, zoals we weten is niets zo paradox en strijdig dan de mens zelf, je zou je dus kunnen voorstellen (en dat is ergens wel grappig) dat deze AI totaal in verwarring geraakt, van alle tegenstrijdige informatie die het verkrijgt van wat mensen wereldwijd denken en doen.
Dit maakt schijnbaar weinig uit, maar stel nu dat AI niet langer wordt gecontroleerd door mensen, maar vanuit zijn immense databank zelf beslissingen maakt (dat is volgens Ray Kurzweil de 'singulariteit' - deze singulariteit wil zeggen dat AI zich ontwikkeld tot zelfstandige (zelfdenkende) machines. De mens wordt daardoor overbodig. Misschien zou een toekomstige AI dit weleens letterlijk kunnen concluderen.)
 
"AI" heeft de tal van situaties geleerd waarbij mensen beslissen en beslist hebben over leven en dood, in oorlogsconflicten, mogelijk hebben ze ook alle mogelijke "filosofische beschouwingen" doorgenomen, waarbij de ene vindt dat doden mag en de ander vindt dat doden niet mag.
 
Een mooi vergelijk is het Trolleyprobleem (ik moest er even opkomen en het opzoeken, het Trolleyprobleem is een heel mooi dilemma) : Hoe zou een AI omgaan met bijvoorbeeld de redenaties van het 'trolleyprobleem' : Iemand doden is moreel niet goed, maar er zijn tal van varianten van twijfel, stel je moet iemand doden om duizend levens te redden?
 
De AI is aangesloten op het WWW en verkrijgt eindeloze met elkaar botsende/strijdige informatie. Vervolgens moet het 'ding' oplossingen bedenken met verregaande gevolgen..

Of ook, wat is de morele kompas van een machine? Die in staat is tot onvoorstelbare snelle leerprocessen maar nooit zal snappen wat iets is als gevoel of emotie. En daardoor fundamentele kennis mist in zijn beslissingen...
 
 
 

 

Geen opmerkingen:

Een reactie posten

“The Bible Commands Genocide!” // De Bijbel Beveelt Genocide

E lke kritische christen of andersgezind gelovige heeft zich ongetwijfeld deze vragen gesteld: Meer dan het 'kwaad in de mens' is ...