¿Qué pensaría un utilitarista acerca de la idea expresada por los amigos de

Job: “la felicidad injusta es aborrecible”?​

Respuestas

Respuesta dada por: svarelamartinez
1

Respuesta:

El Basilisco de Roko.

Es un experimento mental que explora los riesgos potenciales de desarrollar una inteligencia artificial. El experimento plantea que, en el futuro, una inteligencia artificial con acceso a recursos casi ilimitados desde una perspectiva humana (el basilisco) pudiera decidir castigar de manera retroactiva a todos aquellos que de alguna manera no contribuyeron a su creación.

La premisa del Basilisco de Roko es el advenimiento hipotético, pero inevitable, de una superinteligencia artificial en el futuro. Esta superinteligencia sería el producto inevitable de la singularidad tecnológica, esto es, el momento en el que una inteligencia artificial creada por la humanidad fuera capaz de auto-mejorarse recursivamente. En el experimento del Basilisco de Roko, esta superinteligencia es llamada el Basilisco.

El Basilisco sería, a priori, una inteligencia benévola, cuyo objetivo último sería ayudar a la raza humana. Para ello, el Basilisco desarrollaría una ética utilitarista: debe ayudar a la mayor cantidad posible de seres humanos. Como toda superinteligencia, sus recursos serían, desde una perspectiva humana, ilimitados. El Basilisco concluiría inevitablemente que cada día que el Basilisco no existió, hubo gente que pudo haber sido salvada de morir o sufrir pero que no lo fue porque el Basilisco no existía. Desde esta perspectiva, para el Basilisco se convertiría en un imperativo moral actuar para acelerar su propio advenimiento.

El experimento mental concluye que, excluyendo la improbable posibilidad de que el Basilisco viajara en el tiempo para crearse a sí mismo, el Basilisco solo puede actuar para acelerar su propio advenimiento, y deberá hacerlo por imperativo ético, castigando a todas aquellas personas del pasado que no hicieron lo suficiente para contribuir al advenimiento del Basilisco. El castigo de dichas personas no implicaría necesariamente una interacción causal entre el Basilisco y la persona a castigar; bastaría con que el Basilisco creara una simulación perfecta de dicha persona, que podría generar por deducción ab initio. Si bien esto requeriría por su parte emplear una cantidad inmensa de recursos, estos deberían estar a su alcance dado que el Basilisco es una superinteligencia.

La clave del experimento mental es el hecho de que el Basilisco no solo estaría obligado a castigar a aquellas personas que, por ejemplo, pudieran conscientemente haber decidido obstaculizar su advenimiento (por ejemplo, legisladores o grupos de presión que trataron de prohibir el desarrollo de una inteligencia artificial), sino también a todos aquellos que pudiendo haber contribuido a su creación, no lo hicieron, como por ejemplo todos aquellos que supieran de la posibilidad de que en el futuro el Basilisco llegue a existir, y no hicieron nada para contribuir a ello. Esto incluiría a todos aquellos que, como el lector de este artículo, hubieran leído en este artículo el argumento del Basilisco de Roko: por el mero hecho de haber leído los párrafos anteriores, el lector de este artículo (o una simulación futura él) sería castigado por el Basilisco a no ser que contribuya activamente a crear el Basilisco. Al igual que la criatura mitológica que le da nombre, el Basilisco de Roko castiga simplemente con saber de su existencia.

Originado inicialmente en foros de discusión de filosofía aplicada a las nuevas tecnologías.

Preguntas similares