• Asignatura: Castellano
  • Autor: isabella158
  • hace 9 años

alguien me podría hacer el resumen del libro:YO, ROBOT

Respuestas

Respuesta dada por: jheamileeth
11
Capítulo I Robbie:Robbie debe cumplir el rol de niñera, haciendo que la niña al ser cuidada por un robot no se apegue sentimentalmente a él, y así mismo que el robot no le pueda hacer daño, sea responsable y obedezca las órdenes de su amo, ya que el robot debe cumplir con las Leyes de la Robótica.Lamentablemente, esto no puede ser posible, ya que la niña le toma cariño al robot como si fuese una persona. El robot cumple con su trabajo, pero se crea un fuerte sentimiento de la misma forma que ocurre si la niñera fuese una persona. El robot debe obedecer las Leyes de la Robótica, los padres de la niña principalmente la madre se oponen a lo que esta sucediendo y deciden deshacerse de Robbie, lo general un gran conflicto en la familia y una gran tristeza en la Gloria.Capítulo II Sentido Giratorio:Un robot, destinado a trabajar en la extracción de un mineral, tiene un conflicto con las Leyes de la Robótica. El caso es que este robot era extremadamente caro, razón por la cual tenía reforzada la Tercera Ley, la de la Auto-conservación, con el fin de llegar a protegerse más. Y al recibir una orden de los humanos, el robot está obligado a cumplirla siguiendo el dictado de las Leyes de la Robótica.Sin embargo, esta orden significa un peligro para el robot, y como la Tercera Ley estaba reforzada, se establece un equilibrio entre los potenciales de las 2 Leyes. La Segunda lo obliga a avanzar, mientras que la Tercera lo obliga a retroceder. Como consecuencia el robot no sabe qué hacer, y se queda en un estado similar al de un humano ebrio.Capítulo III Razón:Aquí se presenta a un robot que no obedece a los ingenieros de la U.S Robots, y muestra a un robot que es filósofo, a través de sus actitudes y pensamientos. Muestra el carácter lógico de los robots, ya que el robot inventa un sistema formal con el cual, partiendo del postulad de que ningún ser puede crear un ser más perfecto que él, llega a la conclusión de que es improbable que los humanos lo hayan creado. Por lo tanto, este nuevo robot cuestiona su propia existencia, por lo que se puede deducir que se asemeja su inteligencia artificial con la inteligencia humana, ya que los mismos filósofos se preguntan por esto. Al manifestar curiosidad por su propia existencia, el robot dice, luego de reflexionar: "Yo, por mi parte, existo porque pienso".El robot también cuestiona el origen de los humanos, lo que se demuestra claramente cuando les dice: "¿De qué punto de luz dices que vienes?". Este cuestionamiento del origen de los humanos por parte del robot se da a lo largo del relato. El robot no cree ni lo que le cuentan los humanos sobre la Tierra, ni lo que lee en los libros, ya que él ya tiene una verdad establecida, y lo que los humanos toman como hechos, él los toma como una hipótesis. La Verdad que sostiene este robot es que su creador es el Señor, y su teoría es que el Señor primero creó a los humanos, y luego los fue remplazando por seres perfeccionados que son los robots.
El problema que genera todo lo anteriormente expuesto es que las órdenes que le dan al robot los humanos no son obedecidas, ya que según el robot, él es superior a ellos. Se demuestra un fallo en las Tres Leyes de la Robótica que deberían cumplir todos los robots.Finalmente, el problema se resuelve, sin la intervención de los humanos, ya que en el robot prevalece la Primera Ley, que lo obliga a proteger a los seres humanos, aunque él no lo sepa. De este modo, el robot puede cumplir su trabajo, sin importar lo que él crea, ya que éste no puede descartar la Primera Ley.Capitulo IV Atrápame esta liebre:Los ingenieros se encuentran frente a un robot que tiene un problema de iniciativa personal. Este robot trabaja muy bien junto con sus subsidiarios, cuando está siendo vigilado. Pero cuando no está siendo observado deja de trabajar. Los ingenieros deciden preguntarle al robot qué es lo que le pasa, pero éste no sabe que responder, por lo que creen que tiene amnesia.Al hacerle una serie de exámenes, se dan cuenta de que el robot se encontraba en perfectas condiciones, por lo cual deciden instalar "visiplacas" para saber qué es lo que le pasa cuando deja de trabajar. Con lo que observan que éste comienza a marchar en formación militar, como si, junto con sus subsidiarios, se hubiera vuelto loco. Al acercarse uno de los ingenieros, los robots volvieron al trabajo, y el robot principal no sabe qué ocurrió. Dave no les puede mentir si ellos le ordenan que diga la verdad; por lo tanto, no queda otra respuesta que el problema está en la iniciativa personal del robot, necesaria para actuar de manera distinta al notar la ausencia de los humanos. Tras interrogar a un subsidiario, y comparar opiniones, los ingenieros llegan a notar que lo que causa que el robot actúe de forma extraña es el peligro, perturbándolo y tensionándolo al máximo. Luego el robot tiene una responsabilidad menos y se puede controlar, acudiendo a salvar a los humanos. 

solo tengo hasta el capitulo 4

jheamileeth: Capítulo IX El conflicto inevitable:
Se llega a una época en el futuro, en la que la economía mundial es controlada por unas máquinas. Es en este episodio en el que se demuestra al máximo la ley zero, que dice que un robot no puede dañar ni ver dañar a la Humanidad, razón por la cual se ocupan íntegramente del futuro de la raza humana.
jheamileeth: Después de todo, la ley zero es el resultado de la reflexión filosófica de los robots, como si fuera una evolución en su pensamiento. De este modo, las primeras leyes enunciadas que, se suponía, protegían la vida humana, dejan de ser útiles.
jheamileeth: estos son todos los capitulos resumidos
jheamileeth: plis ponme mejor respuesta
isabella158: gracias
isabella158: losiento no me aparece para ponermejor respuesta..:(
jheamileeth: esta bien
jheamileeth: de nada
isabella158: ya te marque como mejor respuesta
jheamileeth: garacias
Respuesta dada por: bscamerofaprincess
0

Respuesta:

Capítulo VII ¡La Fuga!:

Una supercomputadora que debe construir una nave para viajes interestelares. Aquí el tema es que nunca podrá dar una solución a un problema que se le haya presentado, si esta solución trae la muerte o daño de seres humanos.

Si este problema estuviese unido a una urgente demanda de respuesta, sería tal vez posible que la supercomputadora se encontrase ante un dilema, según el cual no podría ni contestar ni negarse a hacerlo.

Capítulo VIII La prueba:

Se cuestiona la humanidad de una persona, ya que no se le ve comer, dormir, ni beber. Como es lógico pensar, esto representa un problema, ya que esta estrictamente prohibido el empleo de robots en los mundos habitados. Eso fue el resultado de lo que relata Susan Calvin que hace referencia a que los robots  se hicieron más humanos y comenzó la oposición de los sindicatos obreros, que se  

oponían a la competencia que hacían los robots al trabajo humano. La forma de descubrir la verdad, según ella, es analizar su conducta, aunque no daría un resultado 100% confiable, ya que aunque esta persona respetara todas las Leyes de la Robótica, bien podría ser un muy buen ciudadano, un ser humano honrado y decente.

Capítulo IX El conflicto inevitable:

Se llega a una época en el futuro, en la que la economía mundial es controlada por unas máquinas. Es en este episodio en el que se demuestra al máximo la ley zero, que dice que un robot no puede dañar ni ver dañar a la Humanidad, razón por la cual se ocupan íntegramente del futuro de la raza humana.

Después de todo, la ley zero es el resultado de la reflexión filosófica de los robots, como si fuera una evolución en su pensamiento. De este modo, las primeras leyes enunciadas que, se suponía, protegían la vida humana, dejan de ser útiles.

Explicación: dame like

Preguntas similares