Emociones de Laboratorio y Electrodomésticas

Máquinas Emocionales: 
Herramientas y Modelos.

Axel Arturo Barceló Aspeitia
Instituto de Investigaciones Filosóficas, UNAM
abarcelo@filosoficas.unam.mx

Resumen: ¿Para qué queremos construir máquinas que muestren y procesen emociones? En este ensayo identifico dos objetivos del proyecto de emociones artificiales dentro de la inteligencia artificial: como herramientas y como modelos. En el primer caso, lo que se busca es  mejorar la interacción humano-máquina, mientras que en el segundo caso lo que se busca es ayudarnos a entender qué papel juegan las emociones en la cognición humana.

Desde mediados de la década de los noventa, el Laboratorio de Inteligencia Artificial del Instituto de Tecnología de Massachussets (MIT) ha dedicado muchos de sus recursos a desarrollar lo que, en los ojos de muchos, pertenece mas al ámbito de la ciencia ficción que de la ciencia: la construcción y desarrollo de robots emocionales. Pero no es solo el MIT; la Sociedad de Computo en el Mundo Real del MITI (Ministerio de Industria y Comercio Internacional), el Instituto Nacional de Ciencia y Tecnología Industrial Avanzada (AIST) del Japón y otras empresas e instituciones educativas también han buscado, por ya un par de décadas, innovar el campo de la inteligencia artificial a través del desarrollo de máquinas emocionales. Detrás de estos proyectos descansa una nueva visión de la inteligencia (humana y artificial) donde emociones y razonamiento juegan, ambas, papeles sustanciales e indisociables. Empero, ¿para qué queremos máquinas que, ademas de ser inteligentes, tengan emociones?
Para resolver esta cuestión, sirve hacerse primero la pregunta ¿para qué queremos máquinas inteligentes? De entre las muchas razones que se han citado a favor de la construcción de máquinas que piensen de manera inteligente, indudablemente dos han sido las que han ejercido la mayor influencia en el desarrollo de la Inteligencia Artificial (MacKenzie 2001): (i) Como modelos explicativos del pensamiento humano –– es decir, para entender mejor cómo es que efectivamente pensamos los humanos –– y (ii) como herramientas para ayudarnos a pensar –– ya sea reduciendo riesgos de error o ahorándonos recursos. En otras palabras, las máquinas nos pueden ayudar a pensar, ya sea pensando mejor que nosotros (más rápido, con menos errores, etc.) y/o pensando por nosotros.
Para mejor entender esta distinción entre modelos y herramientas, tomemos un ejemplo más sencillo e intuitivo: la cámara fotográfica. ¿Cuál es la función propia de una cámara fotográfica? Presumiblemente, producir imágenes. Una cámara fotográfica sirve para producir fotos. Una cámara que no saca fotos, simplemente es una cámara que no funciona, es decir, no cumple su función. En este sentido, la cámara se parece a uno de nuestros órganos: el de la vista, en tanto ambas tienen como función producir imágenes. Es más, podemos decir que la cámara es una extensión de nuestros ojos, pues extiende nuestra capacidad de producir imágenes más allá de las que producen nuestros ojos. Algunas cámaras fotográficas, por ejemplo –– estroboscopicas, microscópicas, de luz infraroja, etc. –– nos permiten ver cosas que de otra manera sería imposible ver directamente con nuestros ojos (Canales 2010). Es en este sentido, que decimos que la cámara fotográfica es una herramienta. En su libro sobre filosofía de la fotografía, Vilém Flusser escribe:
Las herramientas, en el sentido tradicional, son extensiones de órganos humanos: extienden nuestros dientes, dedos, manos, brazos, piernas [permitiéndonos] alcanzar mayores profundidades dentro del mundo natural que las que nos permite el cuerpo por sí mismo. Simulan el órgano que extienden: Una flecha simula los dedos, un martillo el puño, etc. [La cámara] parece simular el ojo. (Flusser 23)
Sin embargo, se pregunta Flusser, ¿qué tanto realmente simula la cámara fotográfica al ojo? Aunque hay claras similitudes entre el funcionamiento del ojo y el de la cámara (por ejemplo, la lente de la cámara y la cornea del ojo cumplen funciones similares de enfoque, ambas cuentan con un tipo de diafragma que regula la entrada de luz al sistema, etc.), también hay claras diferencias entre ellos (el funcionamiento del ojo es óptico-biológico y el de la cámara es óptico-mecánico; uno produce imágenes en papel, el otro imágenes mentales, etc.). Esto se debe a que la virtud de una cámara no se juzga por lo bien que simula al ojo, sino por lo bien que logra cumplir su función, es decir, producir imágenes. La mejor cámara no es la que mejor simula al ojo, sino la que mejor la extiende. En general, qué tanto simule una herramienta el órgano con el que comparte función, dependerá de qué tanto esta similitud le sirva para cumplir dicha función.
Aun así, desde los inicios de la historia de la fotografía, los científicos han explotado las fuertes similitudes entre ojo y cámara para explicar el funcionamiento de este órgano humano. A finales del siglo XIX y principios del XX, por ejemplo, Herman Helmholtz dictó una serie de conferencias en este tenor, y luego empezó a construir un tipo especial de cámaras que ilustraban mejor ciertas funciones y aspectos del ojo, que las cámaras tradicionales (Wade & Finger 2001). Estas nuevas cámaras, por lo tanto, no tenían como función meramente producir imágenes, sino hacerlo de manera similar a la que las produce el ojo y así ayudar a nuestro entendimiento de dicho órgano. En otras palabras, estas nuevas cámaras de Helmholtz ya no buscaban primariamente extender la capacidad del ojo, sino simularlo; no buscaban ser herramientas para ayudarnos a producir imágenes, sino modelos explicativos del ojo humano.
Esta distinción entre herramientas y modelos es común a muchos tipos de aparatos tecnológicos, y las máquinas pensantes de la inteligencia artificial no son la excepción. Hoy en día, cuando pensamos en inteligencia artificial, pensamos en aparatos como computadoras, cuya función propia es extender nuestras capacidades mentales a través de la reproducción de funciones cognitivas como memoria, razonamiento, etc. (Vallverdú 2007), es decir, pensamos en herramientas para el pensamiento inteligente. Sin embargo, no era así como originalmente concebían el objetivo de su empresa pioneros de la inteligencia artificial como Herbet Simon, John McCarthy, Marvin Minsky, Herbert Gelernter y Rodney Brooks. Al buscar simular el pensamiento humano, lo que estos investigadores buscaban era construir modelos explicativos que arrojaran nueva luz sobre la mente humana. Por ello, lo que buscaban era producir máquinas que pensaran tal y como lo hacemos los humanos, con todo y nuestras limitaciones e imperfecciones. Sin embargo, pronto se vio que las computadoras podrían servir también de herramientas del pensamiento. De ahí que científicos e ingenieros como Martín Davis, Hao Wang, Ever Berth, Dag Prawitz etc. se unieran al proyecto, cambiando el objetivo de éste al de producir máquinas inteligentes que superaran nuestras capacidades cognitivas, haciendo realidad el viejo sueño de Leibniz de automatizar el razonamiento inteligente (MacKenzie 2001).
Ahora que el proyecto de Inteligencia Artificial se ha extendido hasta el campo de las emociones, y al igual que con la cámara y la computadora, lo que se busca a veces es una herramienta, y otras veces un modelo. El proyecto del MIT, por ejemplo, busca  modelar artificialmente la mente humana, con todos y emociones. Hay autores, como Jason Megill (2014), que piensan que si bien es cierto que las emociones juegan un papel central en nuestra vida mental, es por lo menos en principio posible lograr máquinas pensantes que no tengan vida emocional. Sin embargo, para la Dra. Breazel (1999, 2002),  entre otros (Casacuberta y Vallverdú 2009), la Inteligencia Artificial sin emociones artificiales es un proyecto destinado al fracaso, ya que según ella, el pensamiento inteligente requiere, entre otras cosas, un buen manejo de las emociones. Es por ello que busca crear lo que he llamado emociones de laboratorio, es decir robots que, en el ambiente controlado del laboratorio muestren conductas que podamos reconocer como emocionales. Su objetivo es ayudarnos a entender mejor la manera en que las emociones afectan nuestro pensamiento. Al igual que otros modelos científicos de laboratorio, su objetivo es ayudar al científico a entender mejor aquello que modelan. En este caso, lo que se modela es el papel de las emociones en la inteligencia humana.
El segundo proyecto, desarrollado especialmente en el Japón, busca crear máquinas que, a través de su capacidad para percibir y expresar emociones, faciliten su interacción con los humanos, y sus primeras aplicaciones han sido en el diseño de juguetes, herramientas educativas e instrumentos terapéuticos (Fong, Nourbakhsh y Dautenham 2003). Este tipo de máquinas, a las que yo llamo Electrodomésticos Emocionales, buscan elevar la relación entre máquinas y humanas a un nivel más alto de interacción. La hipótesis que guía este segundo proyecto es muy simple: Si nuestras máquinas pudieran reconocer nuestros estados emocionales y pudieran comunicarse con nosotros a ese nivel emocional, nos sentiríamos mas a gusto con ellas y podríamos interactuar con ellas de manera más efectiva. A diferencia del primer proyecto, el interés fundamental en este segundo proyecto no es científico, sino tecnológico. Lo que se busca es desarrollar herramientas emocionales, no modelos de la emoción humana. En consecuencia, la fidelidad en la simulación de las emociones humanas no es un fin en sí mismo, sino un medio. En este sentido no se busca que dichas máquinas tengan una vida emocional similar a la del humano, sino sólo que sean capaces de mostrar y procesar las emociones necesarias para facilitar su interacción con los humanos. Así como la inteligencia artificial de nuestras herramientas de pensamiento es una versión instrumental e idealizada de la inteligencia humana, las emociones artificiales de nuestras herramientas emocionales son una versión instrumental e idealizada de las emociones humanas.
Para aquellos científicos que ven a los robots y computadoras como modelos experimentales de la mente humana, la prueba más famosa de que una máquina es efectivamente inteligente ha sido lo que tradicionalmente se llama la Prueba de Turing (bautizada así en honor del filósofo y matemático inglés Alan Turing, quien la presentó originalmente en 1950). Dicha prueba está basada en la idea de que una máquina muestra verdadera inteligencia sólo cuando no podemos distinguir su manera de pensar de la que esperaríamos de un humano. Una maquina inteligente debería simular de tal manera el pensamiento humano que, en nuestra interacción con ella, pudiéramos confundir dicho pensamiento con el de un ser humano. Para el proyecto de emociones artificiales, esto significaría poder reconocer en la máquina las mismas emociones que reconocemos en otros humanos.
En contraste, el éxito de un electrodoméstico emocional no puede definirse en el laboratorio, sino que ha de ponerse a prueba en su uso cotidiano. Para poder interactuar exitosamente con un robot emocional e inteligente no es necesario confundirlo con un ser humano. En muchos casos, por el contrario, sería contraproducente que nuestras respuestas emocionales a un robot fueran idénticas a las que tenemos con otro ser humano. por ejemplo, parecería prima facie que es necesario mantener el mínimo de distancia emocional para poder usarlo (Katz 2003). Después de todo, como ya lo señalo Immanuel Kant (1785), dotar de humanidad a otro implica tratarlo éticamente como un fin en sí mismo y nunca meramente como un medio. En otras palabras, lo humano no puede ser nunca herramienta de otro humano. Hao Wang (1960) podía ver a las computadoras como esclavos inteligentes, realizando trabajos intelectuales demasiado engorrosos para el ser humano, precisamente porque entendía que aunque inteligente, la máquina no era humana. Sin embargo, una vez que dichas máquinas inteligentes muestran también rasgos emocionales, la metáfora del robot-esclavo empieza a dar pie a  cuestionamientos éticos considerables (Singer 1975, Anderson y Anderson 2011, Gunkel 2012), cuando no a pesadillas distópicas. ¿Qué tipo de trabajo emocional podemos calificar de demasiado engorroso para ser dejado a las máquinas en vez de los humanos? En vez de humanizar a las máquinas, el desarrollo de este tipo de robots podría resultar en la deshumanización de las emociones. Si ya no podemos distinguir a los humanos de las máquinas por su manejo de emociones, corremos el riesgo de dejar de usar esas emociones para anclar nuestro compromiso ético con los demás. Por lo tanto, es tiempo de preguntarnos qué tipo de sociedad está dispuesta a delegar a las máquinas el trabajo emocional que comúnmente nos liga con los demás.

BIBLIOGRAFÍA:
Anderson, Michael y Susan Leigh Anderson, (2011) Machine Ethics, Cambridge University Press.
Breazeal, Cynthia, (1999), “Robot in Society: Friend or Appliance”, Reporte del Laboratorio de Inteligencia Artificial del Instituto de Tecnología de Massachussets. Proceedings of the 1999 Autonomous Agents Workshop on Emotion-Based Agent Architectures, Seattle, Washington, pp. 18-26. Disponible en http://www.ai.mit.edu/people/jvelas/ebaa99/breazeal-ebaa99.pdf
(2002), Designing Sociable Robots, Cambridge, Massachussets, MIT Press.
Canales, Jimena, (2010), A Tenth of a Second: A History, University of Chicago Press. 
Flusser, Vilém, (2013), Philosophy of Photography, Reaktion Books.
Fong, Terrense et. al., (2003), “A Survey of Socially Interactive Robots”, Robotics and Autonomous Systems, 42, 143-166. Disponible en http://www.cs.cmu.edu/~illah/PAPERS/socialroboticssurvey.pdf.
Gunkel, David J. (2012) The Machine Question: Critical Perspectives on AI, Robots, and Ethics, MIT Press.
Kant, Immanuel, (1785), Fundamentación de la Metafísica de las Costumbres, Real Sociedad Económica Matritense de Amigos del País. Madrid.
Katz, James Everett, (2003) “Do Machines Become Us?”, en Machines That Become Us: The Social Context of Personal Communication Technology, J. E. Katz (ed.), New Brunswick: Transaction, pp. 15-26.
MacKenzie, Donald, (2001), Mechanizing Proof: Computing, Risk, and Trust. Cambridge, Massachussets, MIT Press. Una versión previa y resumida de los aspectos relevantes a este ensayo se encuentra disponible en línea como “The Automation of Proof: A Historical and Sociological Exploration” (1994) http://129.215.101.90:1001/publications/PICTworkingpapers/WP56.pdf
Marcus, Gary (2012), “The Brain in the Machine”, The New Yorker, November 20.
Megill, Jason (2014), “Emotion, Cognition and Artificial Intelligence”, Minds and Machines 24, (2), pp 189-199.
Simon, Herbert y A. Newell, (1958), “Heuristic problem solving: The next advance in operations research”, Operations Research, 6, (1), pp. 1-10.
Singer, Peter, (1975), Animal Liberation: A New Ethics for Our treatment of Animals, Nueva York: Random House.
Turing, Alan, (1950), “Computing Machinery and Intelligence”, Mind, 49, pp. 433-460. Disponible en http://cogprints.org/499/00/turing.html.
Vallverdú, Jordi, (2007), “For what motives will we create emotional machines?”, Astrolabio, 5, pp. 44-52.
Vallverdú, Jordi y David Casacuberta, (2009), "Emociones sintéticas", en Revista-E Latinoamericana de Filosofia Aplicada, Octubre 2009, http://filosofiaaplicadalatinoamericana.blogspot.mx/2009/10/emociones-sinteticas.html.
Wade, Nicholas J. y Stanley Finger, (2001), “The eye as an optical instrument : from camera obscura to Helmholt z's perspective”,  Perception 30: 1157-1177.

Wang, Hao, (1960), "Toward Mechanical Mathematics," IBM Journal of Research and Development, 4, pp. 2-21. Disponible en http://www.research.ibm.com/journal/rd/041/ibmrd0401B.pdf.

Comentarios

Entradas populares