Ciencia

No deberíamos intentar hacer software consciente, hasta que lo hagamos

Los robots o las inteligencias artificiales avanzadas que «despiertan» y se vuelven conscientes son un elemento básico de los experimentos mentales y la ciencia ficción. Si esto es realmente posible o no, sigue siendo un tema de gran debate. Toda esta incertidumbre nos coloca en una posición desafortunada: no sabemos cómo hacer máquinas conscientes y (dadas las técnicas de medición actuales) no sabremos si hemos creado una. Al mismo tiempo, este tema es de gran importancia, porque la existencia de máquinas conscientes tendría dramáticas consecuencias éticas.

No podemos detectar directamente la conciencia en las computadoras y el software que se ejecuta en ellas, como tampoco lo podemos hacer en las ranas y los insectos. Pero esto no es un problema insalvable. Podemos detectar luz que no podemos ver con nuestros ojos utilizando instrumentos que miden formas de luz no visibles, como los rayos X. Esto funciona porque tenemos una teoría del electromagnetismo en la que confiamos y tenemos instrumentos que nos dan medidas que tomamos de manera confiable para indicar la presencia de algo que no podemos sentir. De manera similar, podríamos desarrollar una buena teoría de la conciencia para crear una medida que pudiera determinar si algo que no puede hablar era consciente o no, dependiendo de cómo funcionaba y de qué estaba hecho.

Desafortunadamente, no existe una teoría consensuada de la conciencia. Un reciente encuesta de estudiosos de la conciencia mostró que solo el 58 por ciento de ellos pensaba que la teoría más popular, el espacio de trabajo global (que dice que los pensamientos conscientes en los humanos son los que se distribuyen ampliamente a otros procesos cerebrales inconscientes), era prometedora. Las tres teorías más populares sobre la conciencia, incluido el espacio de trabajo global, discrepan fundamentalmente sobre si una computadora puede ser consciente o en qué condiciones. La falta de consenso es un problema particularmente grande porque cada medida de conciencia en máquinas o animales no humanos depende de una teoría u otra. No existe una forma independiente de probar la conciencia de una entidad sin decidirse por una teoría.

Si respetamos la incertidumbre que vemos entre los expertos en el campo, la forma racional de pensar sobre la situación es que no sabemos si las computadoras podrían ser conscientes y, si pudieran serlo, cómo podría lograrse. Dependiendo de qué teoría (quizás hasta ahora hipotética) resulte ser correcta, hay tres posibilidades: las computadoras nunca serán conscientes, podrían ser conscientes algún día, o algunas ya lo son.

Mientras tanto, muy pocas personas intentan deliberadamente crear máquinas o software conscientes. La razón de esto es que el campo de la IA generalmente está tratando de crear herramientas útiles, y no está nada claro que la conciencia ayudaría con cualquier tarea cognitiva que querríamos que hicieran las computadoras.

Al igual que la conciencia, el campo de la ética está plagado de incertidumbre y carece de consenso sobre muchos temas fundamentales, incluso después de miles de años de trabajo sobre el tema. Pero un pensamiento común (aunque no universal) es que la conciencia tiene algo importante que ver con la ética. Específicamente, la mayoría de los académicos, independientemente de la teoría ética que puedan respaldar, creen que la capacidad de experimentar estados conscientes agradables o desagradables es una de las características clave que hace que una entidad sea digna de consideración moral. Esto es lo que hace que sea incorrecto patear a un perro pero no a una silla. Si fabricamos computadoras que puedan experimentar estados de conciencia positivos y negativos, ¿qué obligaciones éticas tendríamos con ellas? Tendríamos que tratar una computadora o pieza de software que pudiera experimentar alegría o sufrimiento con consideraciones morales.

Hacemos robots y otras IA para hacer el trabajo que no podemos hacer, pero también el trabajo que no queremos hacer. En la medida en que estas IA tengan mentes conscientes como las nuestras, merecerían una consideración ética similar. Por supuesto, el hecho de que una IA sea consciente no significa que tenga las mismas preferencias que nosotros, o que considere desagradables las mismas actividades. Pero cualesquiera que sean sus preferencias, deberían tenerse debidamente en cuenta al poner a funcionar esa IA. Hacer que una máquina consciente haga un trabajo que es miserable es éticamente problemático. Esto parece obvio, pero hay problemas más profundos.

Considere la inteligencia artificial en tres niveles. Hay una computadora o robot: el hardware en el que se ejecuta el software. El siguiente es el código instalado en el hardware. Finalmente, cada vez que se ejecuta este código, tenemos una «instancia» de ese código ejecutándose. ¿Hasta qué nivel tenemos obligaciones éticas? Podría ser que los niveles de hardware y código sean irrelevantes, y el agente consciente sea la instancia del código que se ejecuta. Si alguien tiene una computadora que ejecuta una instancia de software consciente, ¿estaríamos entonces éticamente obligados a mantenerla funcionando para siempre?

Considere además que la creación de cualquier software es principalmente una tarea de depuración: ejecutar instancias del software una y otra vez, solucionar problemas e intentar que funcione. ¿Qué pasaría si uno estuviera éticamente obligado a seguir ejecutando todas las instancias del software consciente incluso durante este proceso de desarrollo? Esto podría ser inevitable: el modelado por computadora es una forma valiosa de explorar y probar teorías en psicología. Incursionar éticamente en software consciente se convertiría rápidamente en una gran carga computacional y energética sin un final claro.

Todo esto sugiere que probablemente no deberíamos crear máquinas conscientes si podemos evitarlo.

Ahora voy a darle la vuelta a eso. Si las máquinas pueden tener experiencias conscientes y positivas, entonces, en el campo de la ética, se considera que tienen cierto nivel de «bienestar», y se puede decir que hacer funcionar tales máquinas produce bienestar. De hecho, las máquinas eventualmente podrían producir bienestar, como felicidad o placer, de manera más eficiente que los seres biológicos. Es decir, para una cantidad dada de recursos, uno podría producir más felicidad o placer en un sistema artificial que en cualquier criatura viviente.

Supongamos, por ejemplo, que una tecnología futura nos permitiría crear una pequeña computadora que podría ser más feliz que un ser humano eufórico, pero que solo requeriría tanta energía como una bombilla. En este caso, de acuerdo con algunas posiciones éticas, el mejor curso de acción de la humanidad sería crear el mayor bienestar artificial posible, ya sea en animales, humanos o computadoras. Los humanos del futuro podrían establecer el objetivo de convertir toda la materia alcanzable en el universo en máquinas que produzcan bienestar de manera eficiente, quizás 10,000 veces más eficientemente de lo que se puede generar en cualquier criatura viviente. Este extraño futuro posible podría ser el de mayor felicidad.

Este es un artículo de opinión y análisis, y las opiniones expresadas por el autor o autores no son necesariamente las de Científico americano.

Publicaciones relacionadas

Botón volver arriba