«Pensemos si deberíamos construir tecnología parecida a Dios»
Las tecnologías basadas en inteligencia artificial ya son un hecho: han provocado una revolución. Gracias a ellos, por ejemplo, se están desarrollando medicamentos “a la carta” y personalizados; Se han creado máquinas autónomas que pueden realizar tareas mejor que los humanos. respaldar diagnósticos médicos con una precisión sin precedentes; Nos permiten conocer qué hay detrás de determinados comportamientos animales y promover su conservación y reproducción. O aprenden estadística, cooperación, negociación o gestión empresarial gracias a los tradicionales juegos de mesa en los que ya son mejores que nosotros, sus creadores.
Pero con los beneficios vienen los riesgos. Y según Seth Lazar, un filósofo australiano y director del Laboratorio de Inteligencia de Máquinas y Teoría Normativa de la Universidad Nacional de Australia; y Alondra Nelson, presidenta del Consejo de Investigación de Ciencias Sociales de la Universidad de Columbia, todos necesitan ser calibrados. Piense profundamente en cómo debemos dar forma a nuestro futuro junto con la inteligencia artificial. Así surge de un artículo de opinión publicado en la revista.Ciencia«, que dedica un número especial al tema y aborda los desafíos de esta tecnología transformadora en once textos.
“La adopción rápida y generalizada de los últimos modelos de lenguajes grandes ha generado entusiasmo y preocupación por la inteligencia artificial avanzada”, señalan, argumentando que los países están tomando cartas en el asunto. Sin embargo, señalan que en el curso posterior de la investigación, no se persigue ningún enfoque que incluya una perspectiva tanto técnica como social sobre el asunto.
Abordar el debate desde diferentes ángulos
Preguntan qué importancia le damos a la creación de IA avanzada «segura»: «¿Qué significa hacer que los sistemas de IA sean seguros y qué valores y enfoques se deben aplicar al hacerlo?» ¿Se trata de «alineación» para garantizar que la ¿La implementación de IA cumple con las intenciones de algunos diseñadores? ¿O se trata solo de prevenir la destrucción de la humanidad por parte de la IA avanzada?
Aunque pensamos que todas estas preguntas son lo suficientemente completas como para asentar los fundamentos del futuro de la inteligencia artificial, los investigadores señalan que «son claramente insuficientes»: «Un sistema de inteligencia artificial capaz de transformar a la humanidad» para aniquilar aunque lograr». Para evitar eso, todavía estaría entre las tecnologías más poderosas jamás creadas, y tendría que adherirse a un conjunto mucho más amplio de valores e intenciones». un arma poderosa nos destruirá, primero debe ser creada. Y una vez creada, se sumará a las tecnologías que pueden decidir el futuro de toda la humanidad, como la bomba atómica.
Los autores van más allá y señalan que mucho antes de que se construya un equipo que nos destruya, antes habrá otros que no tengan esta capacidad, pero que la gente pueda utilizar para sus propios intereses. “Años de investigación sociotécnica muestran que, cuando no se controlan, las tecnologías digitales avanzadas se utilizan para obtener poder y ganancias a expensas de los derechos humanos, la justicia social y la democracia”. entender y mitigar.”
Por ello, reiteran que ningún grupo de expertos (y mucho menos uno formado únicamente por tecnólogos) debería decidir unilateralmente “qué riesgos importan, qué daños importan y qué valores debe tener la inteligencia artificial segura”. Y para que sea seguro, debe haber «un debate público urgente sobre todas estas preguntas y si debemos intentar construir sistemas de IA ‘como dioses'».
Formado por las ideas de los hombres blancos y preferidos.
Según los autores, también es necesario que la seguridad de la inteligencia artificial no esté determinada únicamente por la ideología de quienes más la usan, que son «desproporcionadamente blancos, hombres y favorecidos, a menudo provenientes de los movimientos sociales de Silicon Valley». ‘Altruismo Efectivo’ y ‘Racionalismo’”.
Como tal, advierten que no debemos cometer un “error familiar”: “Frente a un cambio tecnológico desorientador, las personas recurren instintivamente a los tecnólogos en busca de soluciones”. Sin embargo, el impacto de la IA avanzada no se puede mitigar solo con medios técnicos. Las soluciones que no incluyan una visión social más amplia solo exacerbarán los peligros de la inteligencia artificial”.
.