Faire la morale aux robots

Paris: Flammarion (2021)
  Copy   BIBTEX

Abstract

Les véhicules autonomes, assistants virtuels et autres systèmes d’intelligence artificielle sont conçus pour prendre eux-mêmes des décisions. Alors qu’ils sont appelés à occuper une place grandissante dans nos vies, nous devons nous demander en fonction de quels principes moraux nous voulons les programmer, ce qui soulève des questions inédites. Qu’est-ce qu’un agent moral artificiel? Existe-t-il de bons et de mauvais robots? Et s’il est vrai que les machines reflètent les valeurs de ceux qui les conçoivent, comment éviter de reproduire certains biais et préjugés?

Other Versions

No versions found

Links

PhilArchive



    Upload a copy of this work     Papers currently archived: 101,423

External links

Setup an account with your affiliations in order to access resources via your University's proxy server

Through your library

Analytics

Added to PP
2021-12-28

Downloads
10 (#1,477,106)

6 months
4 (#1,264,753)

Historical graph of downloads
How can I increase my downloads?

Author's Profile

Martin Gibert
Université de Montréal

Citations of this work

No citations found.

Add more citations

References found in this work

No references found.

Add more references