1. Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.
3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.
En mi opinión , estas tres leyes estarían bien como la base de las ordenes que tiene que tener cada robot programado, pero quizás en algunos casos no sea suficiente, ya que se podrían crear determinados conflictos que podrían tener repercusiones en un futuro.
No hay comentarios:
Publicar un comentario