Moral Machine is an online platform, developed by Iyad Rahwan's Scalable Cooperation group at the Massachusetts Institute of Technology, that generates moral dilemmas and collects information on the decisions that people make between two destructive outcomes. The platform is the idea of Iyad Rahwan and social psychologists Azim Shariff and Jean-François Bonnefon, who conceived of the idea ahead of the publication of their article about the ethics of self-driving cars. The key contributors to building the platform were MIT Media Lab graduate students Edmond Awad and Sohan Dsouza.
Attributes | Values |
---|
rdfs:label
| - Moral Machine (ca)
- Moral Machine (en)
- Máquina Moral (pt)
|
rdfs:comment
| - La Moral Machine (màquina moral en anglès) és una desenvolupada per al grup de Cooperació Escalable de l'Institut de Tecnologia de Massachusetts, que genera i recull informació de les decisions que fan les diferents persones entre dos resultats destructius. Els escenaris presentats són sovint variacions del dilema de la vagoneta, i la informació recollida s'utilitzarà en la recerca de les decisions que hauria de prendre la intel·ligència artificial en el futur. Com a exemple, mentre que la intel·ligència artificial juga una paper cada cop més rellevant en la tecnologia de conducció autònoma, projectes de recerca com aquest ajuden a trobar solucions a situacions de vida i mort que hauran d'afrontar aquesta mena de vehicles. (ca)
- Moral Machine is an online platform, developed by Iyad Rahwan's Scalable Cooperation group at the Massachusetts Institute of Technology, that generates moral dilemmas and collects information on the decisions that people make between two destructive outcomes. The platform is the idea of Iyad Rahwan and social psychologists Azim Shariff and Jean-François Bonnefon, who conceived of the idea ahead of the publication of their article about the ethics of self-driving cars. The key contributors to building the platform were MIT Media Lab graduate students Edmond Awad and Sohan Dsouza. (en)
- Máquina Moral (Moral Machine) é uma plataforma online, que gera dilemas morais e recolhe informações sobre as decisões que as pessoas tomam entre dois resultados destrutivos. Os cenários apresentados são muitas vezes variações do dilema do elétrico, e os dados recolhidos serão utilizados para futuras pesquisas tendo em conta as decisões que as máquinas com inteligência artificial deverão tomar no futuro. Por exemplo, à medida que a inteligência artificial desempenha um papel cada vez mais significativo nos veículos autónomos, projetos de investigação como a plataforma Moral Machine ajudam a encontrar soluções para os desafios que os veículos podem encontrar quando confrontados com dilemas de vida e morte. (pt)
|
foaf:homepage
| |
foaf:depiction
| |
dct:subject
| |
Wikipage page ID
| |
Wikipage revision ID
| |
Link from a Wikipage to another Wikipage
| |
Link from a Wikipage to an external page
| |
sameAs
| |
dbp:wikiPageUsesTemplate
| |
thumbnail
| |
has abstract
| - La Moral Machine (màquina moral en anglès) és una desenvolupada per al grup de Cooperació Escalable de l'Institut de Tecnologia de Massachusetts, que genera i recull informació de les decisions que fan les diferents persones entre dos resultats destructius. Els escenaris presentats són sovint variacions del dilema de la vagoneta, i la informació recollida s'utilitzarà en la recerca de les decisions que hauria de prendre la intel·ligència artificial en el futur. Com a exemple, mentre que la intel·ligència artificial juga una paper cada cop més rellevant en la tecnologia de conducció autònoma, projectes de recerca com aquest ajuden a trobar solucions a situacions de vida i mort que hauran d'afrontar aquesta mena de vehicles. Les anàlisis de la dades recopiles van mostrar amples diferències en les preferències relatives entre països diferents, i correlacions entre aquestes preferències i altres mètriques a escala nacional. (ca)
- Moral Machine is an online platform, developed by Iyad Rahwan's Scalable Cooperation group at the Massachusetts Institute of Technology, that generates moral dilemmas and collects information on the decisions that people make between two destructive outcomes. The platform is the idea of Iyad Rahwan and social psychologists Azim Shariff and Jean-François Bonnefon, who conceived of the idea ahead of the publication of their article about the ethics of self-driving cars. The key contributors to building the platform were MIT Media Lab graduate students Edmond Awad and Sohan Dsouza. The presented scenarios are often variations of the trolley problem, and the information collected would be used for further research regarding the decisions that machine intelligence must make in the future. For example, as artificial intelligence plays an increasingly significant role in autonomous driving technology, research projects like Moral Machine help to find solutions for challenging life-and-death decisions that will face self-driving vehicles. Moral Machine was active from January 2016 to July 2020. The Moral Machine continues to be available on their website for people to experience. (en)
- Máquina Moral (Moral Machine) é uma plataforma online, que gera dilemas morais e recolhe informações sobre as decisões que as pessoas tomam entre dois resultados destrutivos. Os cenários apresentados são muitas vezes variações do dilema do elétrico, e os dados recolhidos serão utilizados para futuras pesquisas tendo em conta as decisões que as máquinas com inteligência artificial deverão tomar no futuro. Por exemplo, à medida que a inteligência artificial desempenha um papel cada vez mais significativo nos veículos autónomos, projetos de investigação como a plataforma Moral Machine ajudam a encontrar soluções para os desafios que os veículos podem encontrar quando confrontados com dilemas de vida e morte. A análise dos dados recolhidos através da plataforma Moral mostrou amplas diferenças nas preferências entre os diferentes países, correlações entre essas preferências e várias métricas nacionais. A plataforma moral machine, segundo os seus criadores, tem como objetivo principal ajudar que a transferência de tais valores para os carros autónomos seja feita de forma transparente e de acordo com as espectativas sociais e princípios éticos de cada sociedade e cultura. São colocados ao dispor dos utilizadores dilemas morais por os quais os carros autónomos poderão vir a ser confrontados e os utilizadores deverão escolher, de acordo com os seus valores éticos e morais, qual das hipóteses apresentadas. (pt)
|
prov:wasDerivedFrom
| |
page length (characters) of wiki page
| |
foaf:isPrimaryTopicOf
| |
is Link from a Wikipage to another Wikipage
of | |
is foaf:primaryTopic
of | |