Me encanta la tecnología, soy un
entusiasta. Cada pequeño invento que va
apareciendo, aporta ventajas, comodidad y quizá algún tipo de emoción. Algunos
inventos terminan siendo absolutamente indispensables como el teléfono móvil.
Particularmente pienso que el Computador Personal lo cambió todo, ya que gracias a él logramos
automatizar y administrar de forma mucho más eficiente nuestros trabajos y
vidas personales. Y los teléfonos inteligentes son el anhelo hecho realidad, de
llevar una computadora en el bolsillo.
Hablando de inteligencia, muchos
expertos coinciden en que la inteligencia artificial será en un futuro no muy
lejano, parte esencial de nuestras vidas, pero la miran con miedo de que se nos
escape de las manos. Ellos no se están refiriendo a los automóviles autómatas
que ya se conducen solos (y que son muy seguros, la verdad), más bien hacen
referencia a escenas apocalípticas donde los robots toman control de la
humanidad, o acaban con ella, siendo más astutos que nosotros.
Hay muchos largometrajes que Hollywood
ha creado, que posiblemente hayan hecho creer a las masas que en el futuro
podrás tener conversaciones con robots, los cuales encargarán de realizar
nuestras labores. Algo de eso lo hay en parte, pero muy básico.
Yo debo confesar que me sorprendió
mucho un proyecto de Google en el cual una computadora fue capaz de realizar
una llamada telefónica, hablar con un consultorio médico y programar una cita,
interactuando con una secretaria que no se percató que su interlocutor no era
humano. Fue una conversación limpia y
muy fluida. Un gran trabajo, sea dicho.
La IA jamás será capaz de tener
sentimientos (podrá simularlos, pero eso no hace que los sienta), ni tener la
curiosidad de las sensaciones que producen los sentidos. No se reirá por las
paradojas incoherentes de los chistes ni llorará cuando tenga una pérdida de un
ser amado. De nuevo, puede simular
circunstancias. Y nada más.
¿Puede el ser humano amar un
artefacto que simula tener vida? Por supuesto. Y eso, en mi opinión, puede
nublar la vista. De aquí a un par, tal vez tres décadas, habrá muy buenas
simulaciones. No creo que tenga que
replantearme un cambio en las circunstancias.
Lo que si sería peligroso es que
los códigos de lanzamiento de los misiles nucleares sean dejados en manos de
artefactos con pseudointeligencia. Eso sí
sería una locura; pero en todo caso, si ocurriera una desgracia, no sería por
culpa de la Inteligencia Artificial, sino de la desinteligencia de quien la
haya puesto a cargo. Y es que hay cosas
que, por más automatizada que esté la vida, no pueden delegarse. Imaginen a un
robot realizando una operación solo, sin supervisión humana. Si algo sale mal, ¿Quién
sería responsable?
Sé que este es un análisis muy básico,
sin ahondar en todas las variables y posibilidades. También sé que existe la
posibilidad de que esté equivocado (remota, pero posibilidad al fin), pero creo
que es suficiente para ilustrar mi punto: Se puede programar inteligentemente,
pero no se puede programar inteligencia. Así de simple.