The Singularity: a philosophical perspective

Pieter De Petter
Persbericht

Gaat Artificial Intelligence ons haten? Liefhebben? Of ons gewoon beschouwen als atomen die het kan gebruiken voor iets anders?

Wat een tiental jaren geleden nog pure sciencefiction was lijkt vandaag de dag vaak helemaal niet meer zo gek. De mensheid heeft dan ook in een waanzinnig tempo de transformatie ingezet van een analoge wereld naar een digitale wereld, gestuwd door de eindeloze technologische vooruitgang. En niets lijkt hier tegen opgewassen: arbeid, communicatie, defensie, mobiliteit, zelfs kunst, overal winnen de nullen en enen aan terrein. De grote vraag is dan ook hoe dit zal eindigen voor de mens?  

The Singularity

Niemand minder dan John von Neumann suggereerde in de jaren 1950 dat de mensheid een essential singularity aan het naderen is. Dit idee heeft langzamerhand aan populariteit gewonnen en begin jaren 90 was The Singularity geboren. The Singularity refereert naar een punt in de toekomst waarop Artificial Intelligence (AI) veel intelligenter zal zijn dan de mens. De gevolgen hiervan zijn onmogelijk in te schatten maar de weg naar dit punt is duidelijk: indien de technologische vooruitgang blijft versnellen zal AI op een gegeven moment intelligenter worden dan de mens. Deze vorm van AI, Superintelligence, zal zich na verloop van tijd zelf kunnen herprogrammeren en verbeteren waardoor er een Intelligence Explosion kan ontstaan. Hierna is niets nog zeker, zelfs het voortbestaan van de mens.

Het probleem van inductie

Dit idee heeft lange tijd de wind van voren gekregen omdat de argumentatie gebaseerd is op inductie: generaliseren op basis van een aantal specifieke waarnemingen. Deze methode kan nooit een waterdichte conclusie opleveren. Binnen de wetenschapsfilosofie staat dit bekend als het probleem van inductie: het is niet omdat alle zwanen die je hebt gezien wit zijn, dat de volgende ook met 100% zekerheid wit zal zijn. Vanuit dit perspectief is er geen justificatie mogelijk voor ideeën zoals The Singularity en moet men bereid zijn om een aantal inductieve sprongen te maken. Gelukkig zijn er vandaag de dag voldoende argumenten om met voldoende vertrouwen zo’n ‘sprong in het donker’ te maken. 

Technologische vooruitgang

Eén van de essentiële voorwaarden voor Superintelligence is technologische vooruitgang zodat de nodige hardware en software kan ontwikkeld worden. Initieel lag de focus op hardware, de rekenkracht van een computer. Vandaag de dag kan er echter probleemloos geargumenteerd worden dat supercomputers reeds krachtig genoeg zijn. Daarnaast is de rekenkracht de laatste decennia jaarlijks met ongeveer 50% toegenomen en er lijkt niet direct een kentering van deze trend in de maak. Op software vlak zitten we iets minder ver, al is er de laatste jaren onwaarschijnlijk veel vooruitgang geboekt. AI-onderzoek is aan het boomen en successen volgen elkaar in snel tempo op. Vaak met prestaties die in de buurt komen van de mens of reeds overtreffen: objectherkenning, zelfrijdende wagens, spraakherkenning, de overwinning van Google’s Alphago in het Chinese spel GO, etc. .

Superintelligence

 Het is natuurlijk geen garantie dat succes in deze beperkte deelgebieden zomaar zal leiden tot Superintelligence die bijvoorbeeld ook abstract kan redeneren. Dergelijk argument lijkt momenteel de laatste strohalm waaraan non-believers zich vastklampen. Een interessant tegenargument is de Moravec Paradox: in tegenstelling tot traditionele ideeën vereisen complexe cognitieve taken zoals abstract denken relatief weinig rekenkracht van de mens. Basis taken zoals zicht en motoriek verbruiken daarentegen enorm veel kracht. Een mogelijke verklaring is het gegeven dat redeneren relatief nieuw is in de natuur, minder dan 100.000 jaar oud. In de delen van onze hersenen die verantwoordelijk zijn voor onze zintuigen en motoriek zit echter miljarden jaren ervaring gecodeerd waardoor we deze taken vanzelfsprekend vinden.

Wanneer?

Met andere woorden, abstract denken is helemaal niet zo moeilijk, het zijn de basis taken die potentieel een struikelblok vormen om Superintelligence te bereiken. En dit lijkt voornamelijk een probleem op korte termijn want er wordt reeds hard gewerkt aan de volgende stap(pen): de eerste mathematisch optimale blueprints voor Superintelligence zoals AIXI zijn recent bewezen; talloze organisaties zijn bezig met de concrete ontwikkeling en er worden miljarden in geïnvesteerd; er lopen grote gesubsidieerde projecten zoals het Human Brain Project met als doel het menselijk brein te emuleren, een alternatief pad om superintelligence te bereiken; etc. . Op basis van al deze elementen is het geen verrassing dat de AI toponderzoekers Superintelligence verwachten rond 2100.

Impact

Alles wijst erop dat de komst van Superintelligence de grootste disruptie in de menselijke geschiedenis wordt. De mens zal niet langer het meest intelligente systeem zijn op de aarde. En laat dit nu net de eigenschap zijn die ervoor heeft gezorgd dat we zijn geworden wie we zijn, bovenaan de voedselpiramide staan en deze planeet regeren. Ook de impact van AI in de meer nabije toekomst lijkt niet enkel rozengeur en maneschijn. Talloze jobs gaan onder druk komen te staan en in tegenstelling tot vroegere technologische (r)evoluties lijkt niemand nog safe: van chirurgen over chauffeurs tot zelfs rechters, AI zal respectievelijk nauwkeuriger, veiliger en eerlijker zijn. Daarbij komen nog eens autonome wapens, het Internet-of-Things dat alles aan mekaar zal linken, etc. . Ondanks de enorme opportuniteiten die AI met zich meebrengt is het niet verwonderlijk dat er meer en meer ongerustheid begint te sluimeren.

De controle paradox

Het lijkt vooral van essentieel belang dat we onze grip niet verliezen in een wereld die door AI gedomineerd zal worden. Gelukkig zijn een aantal domeinen zoals AI Safety & Machine Ethics zich aan het ontwikkelen. Eén van de grote vraagstukken die men hierbinnen tracht op te lossen is het controle probleem: hoe kunnen we AI systemen bouwen die ten dienste (blijven) staan van de mens en zich niet ongewenst tegen ons zullen keren? Op het eerste zicht lijkt dit de juiste vraag om onze toekomst te vrijwaren. Vanuit een filosofisch perspectief stoten we echter al snel op een controle paradox: kunnen we überhaupt wel een systeem controleren dat intelligenter is dan we zelf zijn? En in dit licht veranderen we misschien beter de vraag hoe het zal eindigen in de vraag of we eigenlijk wel echte Artificial Intelligence willen?

Bibliografie

Adams, H. 1907. “The Education of Henry Adams”. Self-published.
 
Aghion, P. and Howitt, P. 1994. “Growth and Unemployment.” In The Review of Economic Studies 61 (3), pp. 477–494. Oxford University Press. 
 
Allen, G and Chan, T. 2017. “Artificial Intelligence and National Security.” Available at https://www.belfercenter.org/  Accessed 2018-04-19. 
 
Arel, I. 2012. “The Threat of a Reward-Driven Adversarial Artificial General Intelligence.” In Singularity Hypotheses: a Scientific and Philosophical assessment, edited by Eden et al, pp. 43-58. Springer.
 
Aven, T. 2013. “On the Meaning of a Black Swan in a Risk Context.” In Safety Science 57, pp. 44-51. Elsevier.
 
Baum, S. 2017. "A Survey of Artificial General Intelligence Projects for Ethics, Risk, and Policy." In Global Catastrophic Risk Institute Working Paper 17-1. Available at  https://ssrn.com/abstract=3070741. Accessed 2018-04-19. 
 
Bostrom, N. 1998. “Singularity and predictability.” In Comments on Vinge’s Singularity    Available at: http://mason.gmu.edu/~rhanson/vc.html. Accessed: 2018-03-24.
 
Bostrom, N. 2000. “When Machines Outsmart Humans.” In Futures 35 (7), pp. 759-764. Elsevier. 
 
Bostrom, N. 2002. “Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards.” Available at https://nickbostrom.com/existential/risks.pdf Accessed: 2018-05-10.
 Bostrom, N. 2003. “Are You Living in a Computer Simulation?”. In  Philosophical Quarterly 53, (211),  pp. 243-255. Wiley Blackwell.
 
Bostrom, N. 2005. “A History of Transhumanist Thought.” In Journal of Evolution and Technology 14 (1), pp. 1-25. Institute for Ethics and Emerging Technologies
 
Bostrom, N. 2014. “Superintelligence: Paths, Dangers, Strategies.” Oxford University Press.
 Brain Projects 2018. Available at https://www.humanbrainproject.eu/en/ & https://bluebrain.epfl.ch/ Accessed: 2018-05-14.
  
Brynjolfsson, E. and McAfee, A. 2011. “Race Against the Machine: How the Digital Revolution is Accelerating Innovation, Driving Productivity, and Irreversibly Transforming Employment and the Economy.” pp 1-7. Digital Frontier Press. 
 
Chaisson, E. 2012. “A Singular Universe of Many Singularities: Cultural Evolution in a Cosmic Context.” In Singularity Hypotheses: a Scientific and Philosophical assessment, edited by Eden et al, pp 413-439. Springer.
 
Chalmers, D. J.  2010. “The Singularity: A Philosophical Analysis.” In Journal of Consciousness Studies 17, pp. 7-65. Imprint Academic. 
 
Cox, T. 2012. “Confronting Deep Uncertainties in Risk Analysis.” In Risk Analysis 32 (10), pp. 16071629. Wiley. 
 
Dorner, D. 1997. “The Logic of Failure: Recognizing and Avoiding Error in Complex Situations.” Basic Books. 
 
Dennett, D. C. 2006. “Computers as Prostheses for the Imagination.” Paper presented at the International Computers and Philosophy Conference, Laval, France, May 5–8. (Quoted from Muehlhauser, Salamon 2012.)
 
Dijkstra, E., 1984. Transcript from ACM South Regional Conference, November 16-18, Austin Texas. Available at http://www.cs.utexas.edu/users/EWD/transcriptions/EWD08xx/EWD898.html Accessed: 2018-05-10. 

 Eden, A. H., Moor, J. H., Soraker, J. H. and Steinhart, E. 2012. “Singularity Hypotheses: an Overview”. In Singularity Hypotheses: A Scientific and Philosophical Assessment, edited by Eden et al, pp. 1-11. Springer.
 
Fagnant, D. J. and Kockelman, K. 2015. “Preparing a Nation for Autonomous Vehicles: Opportunities, barriers and policy recommendations.” In Transportation Research Part A: Policy and Practice 77, pp. 167-181. Elsevier. 

 Fisher, M. P. A. 2015. “Quantum Cognition: The Possibility of Processing with Nuclear Spins in the Brain.” In Annals of Physics 362, pp. 593-602. Elsevier.

 Frey, C. B. and Osborne, M. A. 2013. “The future of employment: how susceptible are jobs to computerization?”. Available at https://www.oxfordmartin.ox.ac.uk/downloads/academic/The_Future_of_Empl… Accessed 2018-04-19

 Gasarch, W. I. 2012. “The Second P=? NP Poll.” Available at http://www.cs.umd.edu/~gasarch/papers/poll2012.pdf  Accessed 2018-04-19. 

 Gates, B. 2015. “Stephen Hawking, Elon Musk and Bill Gates Warn about artificial intelligence.” Available at http://observer.com/2015/08/stephen-hawking-elon-musk-and-bill-gates-wa… Accessed 2018-04-19.

 Geist, E. M, 2016. “It’s Already Too Late to Stop the AI Arms Race-We Must Manage it Instead.” In Bulletin of the atomic Scientists 72 (5), pp. 318-321. Taylor and Francis. 

Gigerenzer, G. and Selten, R. 2001. “Rethinking Rationality.” In Bounded Rationality: The Adaptive Toolbox, pp. 1-13. MIT press. 

 
 Good, I. J. 1965. “Speculations Concerning the First Ultraintelligent Machine.” In Advances in Computers 6, pp. 31-88. Academic Press.

 Gubrud, M. A. 1997. “Nanotechnology and International Security.” Available at: https://foresight.org/Conferences/MNT05/Papers/Gubrud/ Accessed: 2018-05-14.

 Hameroff, S. and Penrose, R. 2014. “Consciousness in the Universe: A Review of the Orch Or Theory” In Physics of Life Reviews 11, pp. 39-78. Elsevier.

 Hawking, S. 2015. “Stephen Hawking, Elon Musk and Bill Gates Warn about artificial intelligence.” Available at http://observer.com/2015/08/stephen-hawking-elon-musk-and-bill-gates-wa… Accessed 2018-04-19.

 Henderson, L. 2018. "The Problem of Induction". In The Stanford Encyclopedia of Philosophy, Summer 2018 Edition (forthcoming), edited by Zalta, E. N. . https://plato.stanford.edu/. Accessed: 2018-03-24. 

 Hilbert, M. and López, P. 2011. “The World’s Technological Capacity to Store, Communicate, and Compute Information.” In Science 332, pp. 60 –65. AAAS.

 Horgan, J. 2008. “The Consciousness Conundrum.” In IEEE Spectrum 45 (6) pp 36-41. IEEE.

 Hitendra, D. P. and Krutarth, D. H. 2015. “Application of Bayesian Decision Theory in Management Research Problems.” In International Journal of Scientific Research Engineering & Technology, Conference Proceeding, 14-15 March, 2015, pp. 191-195. IJSRET.

 Hutter, M. 2005. “Universal Artificial Intelligence: Sequential Decisions Based on Algorithmic Probability.” Springer.
 Jeffrey, R. C. 1983. “The Logic of Decision.” University of Chicago Press.

 Keynes, J.M. 1933.  “Economic Possibilities for Our Grandchildren.” In Essays in persuasion, pp. 321332. Macmillan. 

 Koene, R. A., 2012. “Embracing Competitive Balance: The Case for Substrate-Independent Minds and Whole Brain Emulation.” In Singularity Hypotheses: a Scientific and Philosophical assessment, edited by Eden et al, pp. 241-266. Springer. 

 Kent, A. 2017. “Quanta and Qualia.” Available at https://arxiv.org/pdf/1608.04804.pdf Accessed 2018-05-14

 Kožnjak, B 2015. "Who Let the Demon Out? Laplace and Boscovich on determinism". In Studies in History and Philosophy of Science. 51, pp 42–52. Elsevier.

 Kurzweil, R. 2005. “The singularity is Near: When humans transcend biology.” Viking.

 Laplace, Pierre Simon 1902/1814. “A Philosophical Essay on Probabilities.” Translated into English from the original French 6th ed. by Truscott, F.W. and Emory, F.L.. Dover Publications.

 McCarthy, J., Minsky, M., Rochester, N. and Shannon, C.E. 1955. “A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence”.  Available at http://raysolomonoff.com/dartmouth/boxa/dart564props.pdf Accessed: 2018-04-19.
 
 
McDermott, D. 2012. “There Are No “Extendible Methods” in David Chalmers’s Sense Unless P = NP.” Available at: http://www.cs.yale.edu/homes/dvm/papers/no-extendible-methods.pdf Accessed 2018-04-19.

 Meadows, D. H., Meadows, D. L, Randers, J., & Behrens, W. 1972. “The Limits to Growth: a Report for the Club of Rome Project on the Predicament of Mankind.” Universe Books.
 Mitchell, T. 1997. “Machine Learning”. McGraw Hill. 

 Modis, T. 2003. “The Limits of Complexity and Change.” In The futurist (May–June), pp. 26–32. World Future Society.

 Moore, G. E. 1965. “Cramming More Components Onto Integrated Circuits.” In Electronics 38(8), pp 114–117. IEEE.

 Moore, G. E. 2015. “Gordon Moore: The Man Whose Name Means Progress.” Available at https://spectrum.ieee.org/computing/hardware/gordon-moore-the-man-whose… Accessed: 2018-05-25

Moravec, H. 1978. “Today’s Computers, Intelligent Machines and Our Future.” Available at http://www.frc.ri.cmu.edu/~hpm/project.archive/general.articles/1978/an… Accessed: 2018-04.19.

Moravec, H. 1988. “Mind Children.” Harvard University Press. 

 Muehlhauser, L. and Helm, L. 2012. “The Singularity and Machine Ethics”. In Singularity Hypotheses: a Scientific and Philosophical Assessment, edited by Eden et al, pp. 101-126. Springer. 

 Muehlhauser, L. and Salamon, A. 2012. “Intelligence Explosion: Evidence and Import”. In Singularity Hypotheses: a Scientific and Philosophical Assessment, edited by Eden et al, pp. 15-40. Springer. 

 Mueller, V. C. and Bostrom, N. 2016. “Future Progress in Artificial Intelligence: A survey of Expert Opinion.” In “Fundamental Issues of Artificial Intelligence”, Edited by Mueller, V. C. pp. 555-572. Springer. 

 Obama, B. 2016. “Barack Obama, Neural Nets, Self-Driving Cars, and the Future of the World.” In Wired Magazine. Available at: https://www.wired.com/2016/10/president-obama-mit-joi-itointerview/ Accessed: 2018-04-19. 

 Odenwald, S. F. and Green, J. L. 2008. “Bracing For a Solar Superstorm.” In Scientific American 299 (2), pp. 80-87. Scientific American. 

 Omohundro, S. 2012. “Rational Artificial Intelligence for the Greater Good”. In Singularity Hypotheses: a Scientific and Philosophical Assessment, edited by Eden et al, pp. 161-176. Springer. 

 Paté-Cornell, M.E. 2012. “On Black Swans and Perfect Storms: Risk Analysis and Management When Statistics Are Not Enough.” In Risk Analysis 32 (11), pp. 1823-1833. Wiley.

 Peterson, M. 2009. “An introduction to Decision Theory.” Cambridge University Press. 

 Pinker, S. 2008. “The Consciousness Conundrum.” In IEEE Spectrum 45 (6) pp 36-41. IEEE.

 Plebe, A. and Perconti, P. 2012. “The Slowdown Hypothesis.” In Singularity Hypotheses: a Scientific and Philosophical Assessment, edited by Eden et al, pp. 349-362. Springer. 
 
Popper, K. 1934. “The Logic of Scientific Discovery.” Mohr Siebeck. 
 
Putin, V. 2017. Available at https://www.wired.com/story/for-superpowers-artificial-intelligencefuel… Accessed: 2018-05-14.

 Reichenbach, H. 1930. “Causality and Probability.” In Erkenntnis 1, pp. 158-188. Springer.

 Rokeach, M. 1973. The Nature of Human Values. Free Press. 
 Russel, S. 2015. “Take a Stand on AI Weapons.” In Nature 521, pp 415-416. Springer Nature.

 Savage, L. 1954. “The Foundations of Statistics.” Wiley.

 Savage, L. 1961. “The Foundations of Statistics Reconsidered.” In Proceedings of the Fourth Berkeley Symposium on Mathematical Statistics and Probability, Volume 1: Contributions to the Theory of Statistics, pp 575-586. University of California Press. 

 Sandberg, A. 2010. “An Overview of Models of Technological Singularity.” http://agiconf.org/2010/wp-content/uploads/2009/06/agi10singmodels2.pdf. Accessed: 2018-03-24.

 Sandberg, A. and Bostrom, N. 2008. “Whole Brain Emulation: A Roadmap, Technical Report” Future of  Humanity Institute, Oxford University. 

 Seidenfeld, T., Kadane J., and Schervish, M. J. 1989, “On the Shared Preferences of Two Bayesian Decision Makers.” In Journal of Philosophy, 86: 225–244. The Journal of Philosophy Inc. 

 Shiller, R 2018. “How to Stop ‘Extremely Disruptive’ AI from Harming Society: Robert Shiller.” Available at https://www.cnbc.com/2018/01/18/ai-is-extremely-disruptive-robert-shill… Accessed: 2018-05-14

 Sloman, S. A. and Lagnado, D. A 2005. “The Problem Of Induction.” In The Cambridge Handbook of Thinking and Reasoning,  edited by Holyoak, K. J. and Morrison, R. G., pp. 95-116. Cambridge University Press.

 Solomonoff, R. J. 1985. “The Time Scale of Artificial Intelligence: Reflections on Social Effects.” In North-Holland Human Systems Management 5, pp 149-153. Elsevier.

 Sornette, D. 2012. “Dragon-Kings: Mechanisms, Statistical Methods and Empirical Evidence.” In The European Physical Journal Special Topics 205, pp. 1-26. Springer-Verlag. 

 Steele, K. and Stefánsson, H. O. 2016. "Decision Theory." In The Stanford Encyclopedia of Philosophy” edited by Zalta. Available at https://plato.stanford.edu/ Accessed: 2018-04-19

 Taleb, N. N. 2007. “The Black Swan: the Impact of the Highly Improbable.” Random House. 

 Taleb, N. N. 2009. “Ten Principles for a Black Swan-proof World.” Available at https://www.ft.com/content/5d5aa24e-23a4-11de-996a-00144feabdc0 accessed 2018-04-19. 

 Talbott, W. 2016. “Bayesian Epistemology.” In The Stanford Encyclopedia of Philosophy” edited by Zalta. Available at https://plato.stanford.edu/ Accessed: 2018-04-19.

 Tegmark, M. 2000. “Importance of Quantum Decoherence in Brain Processes.” In Physical Review 61, pp. 4194-206. American Physical Society. 

 
Titelbaum, M.G. 2016. “Fundamentals of Bayesian Epistemology.” Oxford University Press.

 Toffler, A. 1970. “Future shock.” Random House.

 Turing, A. M. 1948. “Computing Machinery and Intelligence.” In Mind 49, pp. 433-460. Oxford University Press.  
 
Ulam, S. 1958.  "Tribute to John von Neumann." In Bulletin of the American Mathematical Society 64, pp. 1-49. American Mathematical Society.

 Vinge, V. 1983. “First Word.” In Omni 5 (4), pp. 10-16. Omni Publications. 

 Vinge, V. 1993. “Technological Singularity.” Available at https://www.frc.ri.cmu.edu/~hpm/book98/com.ch1/vinge.singularity.html Accessed: 2018-05-14.

 Walsh, T. 2017. “The Singularity May Never Be Near.” In AI Magazine 38,3. pp. 58-62. AAAI.
 
Wilson, R. A. and Foglia, L. 2017. "Embodied Cognition." In The Stanford Encyclopedia of Philosophy” edited by Zalta. Available at https://plato.stanford.edu/ Accessed: 2018-04-19.

 Wunderlich, K., Dayan and P., Dolan, R. 2012. “Mapping Value Based Planning and Extensively Trained Choice in the Human Brain.” In Nature Neuroscience 15, pp 786 – 791. Nature. 

 Yampolskiy, R. V. and Fox, J. 2012. “Artificial General Intelligence and the Human Mental Model”. In Singularity Hypotheses: a Scientific and Philosophical assessment, edited by Eden et al, pp. 129-146. Springer. 

 Yampolskiy, R. 2017. “The Singularity May Be Near.” Available at https://arxiv.org/ftp/arxiv/papers/1706/1706.01303.pdf Accessed: 2018-04-19.

 Yudkowsky, E. 1996.  “Staring into the singularity.” Available at http://yudkowsky.net/obsolete/singularity.html. Accessed: 2018-03-24.

 Yudkowsky, E. 2007a. “Three Major Singularity Schools.”  Available at https://intelligence.org/2007/09/30/three-major-singularity-schools/. Accessed: 2018-03-24.

 Yudkowsky, E. 2007b. ‘Levels of Organization In General Intelligence.” In Artificial General Intelligence, edited by Goertzeland, Pennachin, pp 389-501. Springer.

 
 Yudkowsky, E. 2008. Artificial Intelligence as a Positive and Negative Factor in Global Risk. Available at http://intelligence.org/files/AIPosNegFactor.pdf Accessed: 2018-05-1

Universiteit of Hogeschool
Master Artificial Intelligence: Engineering and Computer Science
Publicatiejaar
2018
Promotor(en)
Roger Vergauwen
Kernwoorden
Share this on: