Integrating Theological Ethics of Responsibility with Teleological and Deontological Ethics for Embodied AI

Michel Verhaegen
Persbericht

Hoe Theologie bijdraagt aan het verantwoord gebruik van Artificiële Intelligentie

De verantwoordelijkheidslacune

Het onderzoek in deze thesis bevindt zich op het raakvlak tussen technologie en theologie, en richt zich op de vraag hoe de mens moet omgaan met de toenemende automatisering die gebruikmaakt van Artificiële Intelligentie (AI). Als onderwerp van dit onderzoek werden zelfrijdende voertuigen (ZRV) genomen. Deze ZRV worden momenteel door tal van fabrikanten getest en zullen weldra op onze wegen verschijnen. Helaas leggen recente ongevallen met verschillende ZRV een belangrijk probleem bloot. Enerzijds is de technologie soms gebrekkig en worden er foute inschattingen gemaakt, anderzijds wordt de indruk gegeven dat de gebruiker van ZRV-technologie niet meer attent hoeft te zijn in het verkeer, en zelfs bijvoorbeeld rustig een dutje kan doen terwijl het voertuig door het verkeer laveert. Door deze tweespalt ontstaat de zogenaamde verantwoordelijkheidslacune (“responsibility gap”). Deze treedt op in situaties waarbij noch de ontwikkelaar van de AI- technologie noch de gebruiker zich verantwoordelijk acht, omdat de gebruiker volledig vertrouwt op AI, terwijl de ontwikkelaars (of de verkoper) van de AI-technologie erop vertrouwen dat de gebruiker wel zal ingrijpen wanneer AI tekort schiet. Dat laatste omdat de gebruiker daartoe contractueel gebonden werd.

Om het ethische dilemma van de verantwoordelijkheidslacune te analyseren, werden in dit onderzoek de standaard ethische benaderingen teleologie (ethiek van doelen) en deontologie (ethiek van normen en plichten), die vaak vanuit een seculiere invalshoek worden toegepast in AI, in dialoog gebracht met de theologische ethiek van de verantwoordelijkheid, zoals ontwikkeld door de theologen Dietrich Bonhoeffer en H. Richard Niebuhr. Uit deze dialoog zijn twee belangrijke bijdragen geleverd op de onderzoeksvraag verweven in de titel van dit artikel.

De mens blijft cruciaal in het ontwerp van de ethische besluitvorming in AI

De eerste bijdrage gaat over het ontwerp van de ethische besluitvorming in AI als autonoom systeem. Standaard ethische benaderingen zijn niet in staat om AI-systemen toerekeningsvatbaar te laten handelen. De oorzaken van dit falen zijn (a) het niet eenduidig oplossen van eenvoudige verkeersdilemma’s, zelfs wanneer alle feiten bekend zijn, en (b) AI- systemen zijn (nog) niet in staat om bij de ethische besluitvorming op gelijke voet in dialoog te gaan met verantwoordelijke mensen. Ze zijn niet in staat om kritiek op hun werking te begrijpen, bezitten niet de mogelijkheid om zich te verdedigen, en kunnen hun acties niet wijzigen op basis van de gegeven kritiek. De eerste bijdrage heeft laten zien dat menselijke tussenkomst in het ontwerp van de ethische besluitvorming van AI-systemen noodzakelijk blijkt. Een nevenliggende bijdrage is dat dit onderzoek de meerwaarde onderschrijft van samenwerking tussen technoloog en ethicus tijdens de ontwikkeling van AI-systemen. Klassiek zal een ethicus pas nieuwe technologische ontwikkelingen kritisch tegen het licht houden, wanneer deze reeds enige tijd op de markt zijn.

Theologie leidt tot een radicale doorbraak

De tweede bijdrage van het onderzoek betrof het verantwoordelijk gebruik van het AI-systeem. In het kader van autonome wapensystemen werd in 2015 door Michael Horowitz van het Amerikaanse Technologie en Nationaal Veiligheidsprogramma de term “Meaningful Human Control” (MHC) geïntroduceerd. Er werd echter niet duidelijk gemaakt hoe de mens op een betekenisvolle manier betrokken kan worden bij het gebruik van autonome systemen. Recent werd door de groep van prof. van de Hoven van de TU Delft een master-slave verantwoordelijkheidsverdelingsmechanisme ontwikkeld om het begrip MHC concreet te maken. Hierbij is het AI-systeem de “master” en de gebruiker de “slave”. Mijn onderzoek heeft aangetoond dat dit mechanisme de verantwoordelijkheidslacune kan verminderen, maar ten koste van de efficiëntie. Dit omdat de regelmatig uitgezonden alarmen door het AI-systeem, om de alertheid van de gebruiker te verifiëren, vaak nodeloos blijken te zijn. Hierdoor treedt alarm-moeheid op, waardoor het AI-systeem de autorit vroegtijdig en vaak nutteloos afbreekt.

De dialoog met de theologische ethiek van de verantwoordelijkheid, met name het werk “The Responsible Selfvan Niebuhr, heeft laten zien dat de mens veel beter in staat is om op een verantwoorde manier met onzekerheid om te gaan dan de standaard ethische benaderingen voor besluitvorming in AI. Deze nieuwe inzichten hebben geleid tot een nieuwe methode waarbij de gebruiker “master” wordt en het AI-systeem “slave”. In deze nieuwe methode is de gebruiker te allen tijde de eindverantwoordelijke. Dit kan als de gebruiker in staat is te interpreteren wat het AI-systeem doet en waarom het dat doet, en op basis van deze informatie een passende actie kan nemen. Bijvoorbeeld om de controle over te nemen wanneer het AI-systeem een wagen op het pad van de ZRV foutief klasseert als een deel van de weg, zie bijgevoegde figuur.

In de thesis is een voorstel gemaakt hoe deze (wat- en waarom-)vragen beantwoord kunnen worden door middel van moderne "head-up" displays waarbij naast de classificatie van objecten ook de betrouwbaarheid van classificatie wordt aangegeven. In hetzelfde voorbeeld zal de gebruiker tot actie overgaan wanneer deze betrouwbaarheid te laag is.

Het gebruik van het nieuwe systeem zal tot meer acties van de gebruiker leiden in vergelijking met het gebruik van AI als “black-box”. Daarnaast zal de gebruiker ook getraind moeten worden om met dit systeem te leren omgaan. Beide facetten zijn niet ongewoon bij het gebruik van automatiseringssystemen, zoals bijvoorbeeld in de besturing van moderne vliegtuigen. Het nieuwe verantwoordelijkheidsverdelingsmechanisme zal niet alleen de verantwoordelijkheidslacune (sterk) verminderen, maar ook de mens meer betekenisvol betrekken bij het gebruik van autonome systemen. Omdat twee paar ogen meer zien dan één paar, zal de veiligheid met het gebruik van ZRV toenemen. Dit onderzoek opent de mogelijkheid om de verwachte voordelen van ZRV, zoals de vermindering van uitstoot, toenemende flexibiliteit van mensen met een handicap, de vermindering van het aantal verkeersslachtoffers, het efficiënter gebruik van de wegcapaciteit, et cetera, te realiseren.

Conclusie

Het advies van dit onderzoek is om de samenwerking tussen technologie en theologie bij het ontwerp van deze AI-systemen aan te gaan vanaf aanvang. Dit zal in de toekomst leiden tot meerdere vernieuwingen.

Figuur Artikel

Bibliografie

Bibliography

Asaro, Peter. “On Banning Autonomous Weapon Systems: Human Rights, Automation, and the Dehumanization of Lethal Decision-Making.” International Review of the Red Cross 94, no. 886 (June 2012): 687–709. https://doi.org/10.1017/S1816383112000768.

Austad, Torleiv. “‘The Responsibility of the Church for Society’ and Other Essays by H. Richard Niebuhr.” European Journal of Theology 21, no. 1 (April 2012): 71–72.

Aydin, Ciano, Margoth González Woge, and Peter-Paul Verbeek. “Technological Environmentality: Conceptualizing Technology as a Mediating Milieu.” Philosophy & Technology 32, no. 2 (June 1, 2019): 321–38. https://doi.org/10.1007/s13347-018-0309-3.

Barnett, John. “Training People to Use Automation: Strategies and Methods.” Journal of Systemics, Cybernetics and Informatics 3, no. 5 (October 1, 2005): 73–76.

Bhargava, Vikram, and Tae Wan Kim. “Autonomous Vehicles and Moral Uncertainty.” In Robot Ethics 2.0: From Autonomous Cars to Artificial Intelligence, edited by Patrick Lin, Keith Abney, and Ryan Jenkins, 5–19. Oxford, New York, NY: Oxford University Press, 2017. https://doi.org/10.1093/oso/97880190652951.001.0001.

Boddington, Paula. Towards a Code of Ethics for Artificial Intelligence. Artificial Intelligence: Foundations, Theory, and Algorithms. New York, NY: Springer International Publishing, 2017. https://doi.org/10.1007/978-3-319-60648-4.

Bonhoeffer, Dietrich. Discipleship. Minneapolis, MN: Fortress Press, 2015.

Bonhoeffer, Dietrich. Ethics. Edited by Clifford J. Green. Translated by Reinhard Krauss, Charles C. West, and Douglas W. Stott. Dietrich Bonhoeffer Works. Vol. 6. Minneapolis, MN: Fortress Press, 2005.

Bonhoeffer, Dietrich. Letters and Papers from Prison. Minneapolis, MN: Fortress Press, 2010.

Bonhoeffer, Dietrich. Sanctorum Communio: A Theological Study of the Sociology of the Church. Edited by Clifford J. Green. Translated by Joachim Von Soosten, Reinhard Kraus, and Nancy Lukens. Annotated edition. Minneapolis, MN: Fortress Press, 2009.

Bonhoeffer, Dietrich. Widerstand und Ergebung. Edited by Christian Gremmels, Eberhard Bethge, and Renate Berthge. Dietrich Bonhoeffer Werke. Vol. 8. Gütersloh: Gütersloher Verlagshaus, 1998.

Bratman, Michael E. “Two Faces of Intention.” Philosophical Review 93, no. 3 (July 1984): 375–405. https://doi.org/10.2307/2184542.

Bratman, Michael E. “Fischer and Ravizza on Moral Responsibility and History.” Philosophy and Phenomenological Research 61, no. 2 (2000): 453–58. https://doi.org/ppr2000612106.

Brooks, Rodney A. “Intelligence without Reason.” In Proceedings of the 12th International Joint Conference on Artificial Intelligence - Volume 1, IJCAI'91, San Francisco, CA: Morgan Kaufmann Publishers, 1991, 569–95.

Brunner, H. E. Truth As Encounter. Philadelphia, PA: Westminster John Knox Press, 2000.

Daniel, Joshua. “H. Richard Niebuhr’s Reading of George Herbert Mead: Correcting, Completing, and Looking Ahead.” Journal of Religious Ethics 44, no. 1 (February 18, 2016): 92–115. https://doi.org/10.1111/jore.12133.

Daniel, Joshua. Transforming Faith: Individual and Community in H. Richard Niebuhr. Eugene, ORE: Pickwick Publications, 2015.

Dastin, Jeffrey. “Amazon Scraps Secret AI Recruiting Tool That Showed Bias Against Women.” Reuters, October 10, 2018. https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-i….

Dennett, Daniel C. Elbow Room: The Varieties of Free Will Worth Wanting. NED-New edition. Cambridge: The MIT Press, 2015. http://www.jstor.org/stable/j.ctt17kk7ns.

Dietrich, Manuel, and Thomas H. Weisswange. “Distributive Justice as an Ethical Principle for Autonomous Vehicle Behavior beyond Hazard Scenarios.” Ethics and Information Technology 21, no. 3 (September 1, 2019): 227–39. https://doi.org/10.1007/s10676-019-09504-3.

Eliot, Lance. “Has Elon Musk Set Up Regulatory Boogeyman As Scapegoat For Ongoing Delay In Promise Of Self-Driving Teslas?” Forbes, April 17, 2020. https://www.forbes.com/sites/lanceeliot/2020/04/17/has-elon-musk-set-up….

Elliott, Carl. “Enhancement Technologies and the Modern Self.” Journal of Medicine and Philosophy 36, no. 4 (August 2011): 364–74. https://doi.org/10.1093/jmp/jhr031.

Encyclopedia Britannica. “Computer Science - Algorithms and Complexity.” Accessed March 23, 2021. https://www.britannica.com/science/computer-science.

Fischer, John Martin, and Mark Ravizza. Responsibility and Control: A Theory of Moral Responsibility. Cambridge: Cambridge University Press, 1998.

Foot, Philippa. “The Problem of Abortion and the Doctrine of the Double Effect.” Oxford Review 5 (1967): 5–15.

Frankfurt, Harry G. “Freedom of the Will and the Concept of a Person.” Journal of Philosophy 68, no. 1 (January 1971): 5–20. https://doi.org/10.2307/2024717.

Frick, Peter. “Dietrich Bonhoeffer: Engaging Intellect – Legendary Life.” Religion Compass 6, no. 6 (June 28, 2012): 309–22. https://doi.org/10.1111/j.1749-8171.2012.00357.x.

Fritz, Alexis, Wiebke Brandt, Henner Gimpel, and Sarah Bayer. “Moral Agency without Responsibility? Analysis of Three Ethical Models of Human-Computer Interaction in Times of Artificial Intelligence (AI).” De Ethica 6, no. 1 (June 30, 2020): 3–22. https://doi.org/10.3384/de-ethica.2001-8819.20613.

Fujiyoshi, Hironobu, Tsubasa Hirakawa, and Takayoshi Yamashita. “Deep Learning-Based Image Recognition for Autonomous Driving.” IATSS Research 43, no. 4 (December 1, 2019): 244–52. https://doi.org/10.1016/j.iatssr.2019.11.008.

Geiger, R. Stuart, Kevin Yu, Yanlai Yang, Mindy Dai, Jie Qiu, Rebekah Tang, and Jenny Huang. “Garbage In, Garbage Out? Do Machine Learning Application Papers in Social Computing Report Where Human-Labeled Training Data Comes From?” In Proceedings of the 2020 Conference on Fairness, Accountability and Transparency, Barcelona, December 17, 2019, 325–336. https://doi.org/10.1145/3351095.3372862.

Gurney, Jeffrey. “Crashing into the Unknown: An Examination of Crash-Optimization Algorithms Through the Two Lanes of Ethics and Law.” Albany Law Review 79, no. 183 (March 2016). https://papers.ssrn.com/abstract=2622125.

Gustafson, James W. Introduction of The Responsible Self: An Essay in Christian Moral Philosophy. New York, NY: Harper & Row, 1963.

Harari, Yuval Noah. Homo Deus: A Brief History of Tomorrow. Illustrated edition. New York, NY: Harper & Row, 2017.

Heuvel, Steven C. van den. Bonhoeffer’s Christocentric Theology and Fundamental Debates in Environmental Ethics. Eugene, ORE: Pickwick Publications, an Imprint of Wipf and Stock Publisher, 2017.

Heuvel, Steven C. van den. “Leadership and the Ethics of Responsibility: An Engagement with Dietrich Bonhoeffer.” In The Challenges of Moral Leadership, edited by Patrick Nullens and Steven C. van den Heuvel, 111–25. Christian Perspectives on Leadership and Social Ethics 2. Leuven: Peeters, 2016.

Horowitz, Michael C., and Paul Scharre. Meaningful Human Control in Weapon Systems: A Primer. Washington D.C.: Center for a New American Security, 2015. https://www.jstor.com/stable/resrep06179.

Huber, Wolfgang. “Ethics of Responsibility in a Theological Perspective.” Stellenbosch Theological Journal 6, no. 1 (August 2020): 185–206. https://doi.org/10.17570/stj.2020.v6n1.a11.

Huber, Wolfgang. “Toward an Ethics of Responsibility.” Journal of Religion 73, no. 4 (October 1, 1993): 573–91. https://doi.org/10.1086/489259.

Jong, Roos de. “The Retribution-Gap and Responsibility-Loci Related to Robots and Automated Technologies: A Reply to Nyholm.” Science and Engineering Ethics 26, no. 2 (April 1, 2020): 727–35. https://doi.org/10.1007/s11948-019-00120-4.

Kant, Immanuel. Groundwork for the Metaphysics of Morals. Edited by Thomas E. Hill Jr and Arnulf Zweig. Oxford Philosophical Texts. Oxford, New York, NY: Oxford University Press, 2002.

Keeling, Geoff. “Why Trolley Problems Matter for the Ethics of Automated Vehicles.” Science and Engineering Ethics 26, no. 1 (February 1, 2020): 293–307. https://doi.org/10.1007/s11948-019-00096-1.

Kochenderfer, Mykel J., Christopher Amato, Girish Chowdhary, Jonathan P. How, and Hayley J. Davison Reynolds. Decision Making Under Uncertainty: Theory and Application. Illustrated edition. Cambridge: The MIT Press, 2015.

Lehmann, Paul. Ethics in a Christian Context. New York, NY: Harper & Row, 1963.

Lemay, Mathieu. “Understanding Canada’s Algorithmic Impact Assessment Tool.” Medium, June 11, 2019. https://towardsdatascience.com/understanding-canadas-algorithmic-impact….

Liddell, H. G., R. Scott, Sir Henry Stuart Jones, Roderick McKenzie, P. G. W. Glare, and A. A. Thompson. A Greek-English Lexicon. 9th edition with Revised Supplement. Oxford, New York, NY: Oxford University Press, 1996.

Lin, Patrick, Keith Abney, and Ryan Jenkins, eds. Robot Ethics 2.0: From Autonomous Cars to Artificial Intelligence. Oxford, New York, NY: Oxford University Press, 2017.

Matthias, Andreas. “The Responsibility Gap: Ascribing Responsibility for the Actions of Learning Automata.” Ethics and Information Technology 6, no. 3 (September 1, 2004): 175–83. https://doi.org/10.1007/s10676-004-3422-1.

Mecacci, Giulio, and Filippo Santoni de Sio. “Meaningful Human Control as Reason-Responsiveness: The Case of Dual-Mode Vehicles.” Ethics and Information Technology 22, no. 2 (June 1, 2020): 103–15. https://doi.org/10.1007/s10676-019-09519-w.

Meyer, Gereon, and Sven Beiker, eds. Road Vehicle Automation 6. Lecture Notes in Mobility. New York, NY: Springer International Publishing, 2019. https://doi.org/10.1007/978-3-030-22933-7.

Michon, John A. “A Critical View of Driver Behavior Models: What Do We Know, What Should We Do?” In Human Behavior and Traffic Safety, edited by Leonard Evans and Richard C. Schwing, 485–524. Boston, MA: Springer US, 1985. https://doi.org/10.1007/978-1-4613-2173-6_19.

Millar, Jason. “Ethics Setting for Autonomous Vehicles.” In Robot Ethics 2.0: From Autonomous Cars to Artificial Intelligence, edited by Patrick Lin, Abney Keith, and Jenkins Ryan, 20–34. Oxford, New York, NY: Oxford University Press, 2017.

Moral Machine. “Moral Machine.” Accessed June 30, 2020. http://moralmachine.mit.edu.

Morgan, Jeffrey. “A Loss of Judgment: The Dismissal of the Judicial Conscience in Recent Christian Ethics.” Journal of Religious Ethics 45, no. 3 (August 14, 2017): 539–61. https://doi.org/10.1111/jore.12189.

Nat’l Highway Safety Admin., U.S. Dep’t of Transp. Countermeasures That Work: A Highway Safety Countermeasure Guide for State Highway Safety Offices. Countermeasures that Work. Chapel Hill, NA: University of North Carolina, 2011. http://www.nhtsa.gov/staticfiles/nti/pdf/811444.pdf.

Niebuhr, H. Richard. Radical Monotheism and Western Culture, With Supplementary Essays. Louisville, KY: Westminster John Knox Press. 1993.

Niebuhr, H. Richard. “The Ego-Alter Dialectic and the Conscience.” Journal of Philosophy 42, no. 13 (June 1945): 352–59. https://doi.org/10.2307/2018981.

Niebuhr, H. Richard. The Responsible Self: An Essay in Christian Moral Philosophy. New York, NY: Harper & Row, 1963.

Nullens, Patrick, and Ronald T. Michener. The Matrix of Christian Ethics: Integrating Philosophy and Moral Theology in a Postmodern Context. London: IVP Books, 2010.

Nyholm, Sven. “Attributing Agency to Automated Systems: Reflections on Human–Robot Collaborations and Responsibility-Loci.” Science and Engineering Ethics 24, no. 4 (August 1, 2018): 1201–19. https://doi.org/10.1007/s11948-017-9943-x.

Nyholm, Sven, and Jilles Smids. “The Ethics of Accident-Algorithms for Self-Driving Cars: An Applied Trolley Problem?” Ethical Theory and Moral Practice 19, no. 5 (November 1, 2016): 1275–89. https://doi.org/10.1007/s10677-016-9745-2.

O’Connell, Mary Ellen. “Chapter 12. Banning Autonomous Killing: The Legal and Ethical Requirement That Humans Make Near-Time Lethal Decisions.” In The American Way of Bombing Changing Ethical and Legal Norms, from Flying Fortresses to Drones, edited by M. Evangelista and H. Shue, 224–36. Ithaca, NY: Cornell University Press, 2018. https://doi.org/10.7591/9780801454578-014.

Paeth, Scott. “The Responsibility to Lie and the Obligation to Report.” Journal of Business Ethics 112, no. 4 (January 2013): 559–66.

Pfeifer, Rolf, and Fumiya Iida. “Embodied Artificial Intelligence: Trends and Challenges.” In Embodied Artificial Intelligence: International Seminar, Dagstuhl Castle, Germany, July 7-11, 2003. Revised Papers, edited by Fumiya Iida, Rolf Pfeifer, Luc Steels, and Yasuo Kuniyoshi, 1–26. Lecture Notes in Computer Science. Berlin: Springer Gabler, 2004. https://doi.org/10.1007/978-3-540-27833-7_1.

Premio Inc. “CANBus: The Central Networking System of Vehicles.” June 20, 2019. https://premioinc.com/blogs/blog/can-bus-the-central-networking-system-….

Puffer, Matthew. “Three Rival Versions of Moral Reasoning: Interpreting Bonhoeffer’s Ethics of Lying, Guilt, and Responsibility.” Harvard Theological Review 112, no. 2 (April 2019): 160–83. https://doi.org/10.1017/S001781601900004X.

Quach, Katyanna. “Remember the Uber Self-Driving Car That Killed a Woman Crossing the Street? The AI Had No Clue about Jaywalkers.” The Register. November 6, 2019. https://www.theregister.com/2019/11/06/uber_self_driving_car_death/.

Rawlings, J. B. “Tutorial Overview of Model Predictive Control.” IEEE Control Systems Magazine 20, no. 3 (June 2000): 38–52. https://doi.org/10.1109/37.845037.

Rawls, John. A Theory of Justice. Revised edition. Cambridge, MA: Harvard University Press, 2009. https://www.hup.harvard.edu/catalog.php?isbn=9780674000780.

Reed, Esther D. “The Limits of Individual Responsibility: Dietrich Bonhoeffer’s Reversal of Agent-Act-Consequence.” Journal of the Society of Christian Ethics 37, no. 2 (Fall/Winter 2017): 39–58. https://www.jstor.org/stable/44987550

Renda, Andrea. “Artificial Intelligence: Ethics, Governance and Policy Challenges.” CEPS Task Force, February 15, 2019. https://www.ceps.eu/ceps-publications/artificial-intelligence-ethics-go….

Rios, Jeremy M. “Bonhoeffer and Bowen Theory: A Theological Anthropology of the Collective-Person and Its Implications for Spiritual Formation.” Journal of Spiritual Formation and Soul Care 13, no. 2 (November 1, 2020): 176–92. https://doi.org/10.1177/1939790920915700.

SAE. “Taxonomy and Definitions for Terms Related to Driving Automation Systems for On-Road Motor Vehicles.” Technical, June 15, 2018. https://www.sae.org/standards/content/j3016_201806/.

Saleh, Naveed. “The Dangers of Alarm Fatigue.” Psychology Today, January 12, 2018. https://www.psychologytoday.com/blog/the-red-light-district/201801/the-….

Santoni de Sio, Filippo, and Jeroen van den Hoven. “Meaningful Human Control over Autonomous Systems: A Philosophical Account.” Frontiers in Robotics and AI 5 (February 18, 2018). https://doi.org/10.3389/frobt.2018.00015.

Schweiker, William. Responsibility and Christian Ethics. Cambridge: Cambridge University Press, 1999.

Sedgwick, Timothy F. “Niebuhr’s Ethic of Responsibility: A Unified Interpretation.” Saint Luke’s Journal of Theology 23, no. 4 (September 1980): 265–83.

Shepardson, David. “Tesla, NTSB Clash over Autopilot Investigation.” Reuters, April 12, 2018. https://www.reuters.com/article/us-tesla-crash-autopilot-idUSKBN1HJ2JS.

Smuha, Nathalie. “Ethics Guidelines for Trustworthy AI.” European Commission, April 8, 2019. https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-tr….

Sun, S., Z. Cao, H. Zhu, and J. Zhao. “A Survey of Optimization Methods From a Machine Learning Perspective.” IEEE Transactions on Cybernetics 50, no. 8 (August 2020): 3668–81. https://doi.org/10.1109/TCYB.2019.2950779.

Taylor, Charles. The Malaise of Modernity. Concord, Canada: Anansi Press, 1991. https://www.goodreads.com/work/best_book/87699794-the-malaise-of-modern….

Thornton, Sarah M., Benjamin Limonchik, Francis E. Lewis, Mykel J. Kochenderfer, and J. Christian Gerdes. “Toward Closing the Loop on Human Values.” IEEE Transactions on Intelligent Vehicles 4, no. 3 (September 2019): 437–46. https://doi.org/10.1109/TIV.2019.2919471.

Thornton, Sarah M., Selina Pan, Stephen M. Erlien, and J. Christian Gerdes. “Incorporating Ethical Considerations Into Automated Vehicle Control.” IEEE Transactions on Intelligent Transportation Systems 18, no. 6 (June 2017): 1429–39. https://doi.org/10.1109/TITS.2016.2609339.

Thornton, Sarah Marie. “Autonomous Vehicle Motion Planning with Ethical Considerations.” PhD diss., University of Stanford, Stanford, 2018. https://searchworks.stanford.edu/view/12746436.

Tillich, Paul. “The Method of Correlation,” In ibid., Systematic Theology., 1:59–66. Chicago, ILL: University of Chicago Press, 1950.

UK Government. “Killer Robots: UK Government Policy on Fully Autonomous Weapons.” April 2013. http://www.article36.org/wp-content/uploads/2013/04/Policy_Paper1.pdf.

Vallor, Shannon. Technology and the Virtues: A Philosophical Guide to a Future Worth Wanting. Oxford, New York, NY: Oxford University Press, 2016.

Verbeek, Peter-Paul. “Some Misunderstandings About the Moral Significance of Technology.” In The Moral Status of Technical Artefacts, edited by Peter Kroes and Peter-Paul Verbeek, 75–88. Philosophy of Engineering and Technology. Dordrecht: Springer Netherlands, 2014. https://doi.org/10.1007/978-94-007-7914-3_5.

Vignard, Kerstin. “The Weaponization of Increasingly Autonomous Technologies: Considering How Meaningful Human Control Might Move Discussion Forward.” UNIDIR, 2014. https://www.unidir.org/files/publications/pdfs/considering-how-meaningf….

Vincent, James. “Global Preferences for Who to Save in Self-Driving Car Crashes Revealed.” The Verge, October 24, 2018. https://www.theverge.com/2018/10/24/18013392/self-driving-car-ethics-di….

Volvo Cars. “Autonomous Driving | Intellisafe | Volvo Cars.” Accessed June 26, 2020. https://www.volvocars.com/en-kw/own/own-and-enjoy/autonomous-driving.

Wallach, Wendell. “Robot Minds and Human Ethics: The Need for a Comprehensive Model of Moral Decision Making.” Ethics and Information Technology 12, no. 3 (July 2010): 243–50. https://doi.org/10.1007/s10676-010-9232-8.

Weber, Max, and Ronald Speirs. “Political Writings.” Cambridge: Cambridge University Press, 1994. https://doi.org/10.1017/CBO9780511841095.

Yardon, Danny, and Dan Tynan. “Tesla Driver Dies in First Fatal Crash While Using Autopilot Mode.” Guardian. June 30, 2016. http://www.theguardian.com/technology/2016/jun/30/tesla-autopilot-death….

Yurtsever, Ekim, Jacob Lambert, Alexander Carballo, and Kazuya Takeda. “A Survey of Autonomous Driving: Common Practices and Emerging Technologies.” IEEE Access 8 (2020): 58443–69. https://doi.org/10.1109/ACCESS.2020.2983149.

Zhang, Xiang, Wei Liu, and S. Travis Waller. “A Network Traffic Assignment Model for Autonomous Vehicles with Parking Choices.” Computer-Aided Civil and Infrastructure Engineering 34, no. 12 (July 30, 2019): 1100–1118. https://doi.org/10.1111/mice.12486.

Zimmermann, Jens. “Virtue Ethics and Realistic Responsibility in an Age of Globalization.” In Handbook of Virtue Ethics in Business and Management, edited by Alejo José G. Sison, Gregory R. Beabout, and Ignacio Ferrero, 1281–95. International Handbooks in Business Ethics. Dordrecht: Springer Netherlands, 2017. https://doi.org/10.1007/978-94-007-6510-8_54.

 

Universiteit of Hogeschool
Master of Arts in Theology and Religious Studies - Specialisation: Church & Pastoral Ministries
Evangelische Theologische Faculteit Leuven
Publicatiejaar
2021
Promotor(en)
Dr. Steven C. van den Heuvel
Kernwoorden
Share this on: