Theodore Berger y su equipo del Departamento de Ingenieria de la escuela USC Viterbi han desarrollado una memoria artificial diseñada para roedores que es capaz de restaurar la capacidad de formar memoria a largo plazo.

En su experimiento, Berger y su equipo bloquearon la capacidad que tienen las ratas para formar memorias a largo plazo utilizando agentes farmacológicos que interrumpen el circuito nervioso que comunica las dos subregiones del hipocampo (la CA3 y la CA1, cuya interacción permite genera recuerdos a largo plazo).

Con los circuitos bloqueados, las ratas no lograban recordar qué palanca debían mover para recibir una cierta recompensa, o solo podían hacerlo entre 5 y 10 segundos.

Seguidamente, los investigadores insertaron en las mismas ratas un sistema de hipocampo artificial (una prótesis nerviosa, a modo de microchip, que hace las veces de hiupocampo y que permite la interacción entre las subregiones CA3 y CA1)  a fin de duplicar el patrón de la interacción entre ambas subregiones. La capacidad a largo plazo de la memoria regresó automáticamente con la activación del dispositivo electrónico.

INTRODUCCIÓN

Una de las tecnologías más importantes en la nueva sociedad tecnológica y post-industrial, denominada sociedad en red, es la robótica (Castells 1996). La visión de un mundo en el que el trabajo de los seres humanos pudiera ser reemplazado por el de los robots, proclamada por los expertos en robótica desde hace tiempo (Moravec 1999), no se ha cumplido aún (López Peláez, Krux 2001).

En la actualidad, es un tema que causa mucha controversia e interés pensar que en un futuro cercano, robots más avanzados tecnológicamente podrían llegar a convivir con los seres humanos en el ámbito público de nuestra sociedad, desempeñándose en empleos y tareas propias de nosotros. El avance del proceso tecnológico rinde sus frutos desde hace ya bastante tiempo y muchas tareas que anteriormente eran realizadas por el hombre fueron progresivamente dejadas a las máquinas.

La construcción de androides (seres artificiales idénticos a humanos) forma parte de la propensión natural del hombre a recrear y representar la realidad natural por medio de símbolos artificiales, que se remonta a los bisontes del hombre primitivo y se extiende hasta las modernas técnicas de realidad virtual del hombre posmoderno. Con el desarrollo de la cultura icónica en la civilización occidental a partir del siglo XVIII, esta tendencia a representar lo real se consolidó con una intensa producción de figuras e imágenes destinadas a ser experimentadas como más reales que lo real mismo, en una inclinación hacia una representación realista, verista y naturalista de las cosas. El antropomorfismo, como instancia particular de esta tendencia más general, se vio beneficiado, a partir de este siglo, por la preferencia de la representación realista de las figuras e imágenes destinadas, en su máxima expresión, a reemplazar al objeto representado. Ahora bien, ¿de dónde viene esa pulsión por crear androides y máquinas humanas?

Se podría pensar, de algún modo, que el antropomorfismo en la construcción de seres artificiales simplifica la tarea: es más fácil armar un ser absolutamente funcional si se parte de un modelo de funcionamiento perfecto, como el ser humano. El ingeniero que busca recrear en el artefacto mecánico la compleja dinámica del organismo humano, tiene a su disposición un modelo de arquitectura y estructura cibernética insuperable, producto de millones de años de evolución biológica, que le sirve de arquetipo en funciones y apariencias, y que le revela en todo momento las directrices fundamentales que deberá respetar a fin de tener éxito en su diseño artificial.

La Prueba de Turing, propuesta en un famoso artículo publicado en 1950 por el matemático y filósofo Alan Turing, uno de los padres de la ciencia de la computación y la informática moderna, consiste en un experimento destinado a comprobar si una computadora (una máquina universal de Turing ) puede pensar tal como lo hace un ser humano. La prueba consiste en un interrogatorio llevado a cabo por un humano que presenta una serie de preguntas a dos individuos ubicados detrás de sendas puertas, uno de los cuales es una máquina. Si el interrogador no puede distinguir cuál de los dos sujetos es el ser humano y cuál la máquina, entonces ésta ha pasado la prueba, y podemos afirmar de ella que tiene una capacidad de pensamiento análoga a la de un ser humano. Turing especulaba que para el año 2000 una computadora electrónica podría pasar aproximadamente un 30 por ciento de éxitos frente a un interrogador promedio durante un interrogatorio que durara cinco minutos.

1. Introducción

En los últimos años, el cine digital ha contribuido en gran medida con los avances que el cine clásico exigía para su progreso. Sin embargo, varios especialistas definen a este cine como autor un retroceso en la industria, que podría tener como consecuencia el fin de la misma. Tomando como punto de partida estas dos posturas podemos preguntarnos:

¿Podrá el cine digital en un futuro ser la causa del progreso y la solución ideal para las problemáticas cinematográficas o, por el contrario, dará origen a una “muerte” en el cine tradicional de película de celuloide?

Este  interrogante nos lleva a dos respuestas completamente desiguales. Por un lado se puede afirmar el próximo y positivo avance en el cine mediante las tecnologías digitales, mientras que por el otro contrariamente, se hablaría de un deterioro en el cine que abriría las puertas al fin de su esencia. Entretanto, la hipótesis de este trabajo sostendrá la primera postura debido a los exitosos resultados obtenidos por las tecnologías digitales en el campo cinematográfico durante los últimos treinta años, como así también a sus dificultades para imitar ciertas características del cine tradicional.

Hace unos años, en el Zeitgeist 2006, Larry Page, co-fundador de Google Inc., aseguró que el objetivo final de Google para su motor de búsqueda era conseguir que sea capaz de entender cualquier cosa que solicite el usuario y que pueda buscar la información correcta de forma instantánea. Un motor de búsqueda que sepa exactamente lo que uno está buscando, que pueda entender las preguntas que se le hacen incluso mejor que uno mismo, y que pueda encontrar exactamente la información correcta y “responder” instantáneamente.

“La gente siempre asume que ya hemos hecho todo lo posible en las búsquedas. Están muy lejos de la realidad. Probablemente estamos a solo el 5 por ciento del camino para llegar al final. Queremos crear el motor de búsqueda definitivo que pueda entender cualquier cosa … alguna gente puede llamarlo inteligencia artificial”, afirmó Page en una entrevista realiza ese mismo año.

Como siempre, la ciencia ficción se adelanta a la ciencia real, y en 1968 Stanley Kubrick llevó a la pantalla grande a HAL 9000 (la sigla HAL se forma por las letras que preceden a la sigla IBM, y significa Heuristically programmed ALgorithmic computer). Se trata de una supercomputadora dotada de inteligencia artificial que domina por completo la nave espacial Discovery, tripulada por seres humanos que se dirigen al Planeta Júpiter, por motivos que solo HAL conoce.

Un sistema de inteligencia artificial es actualmente el mayor exponente de la mimesis del cerebro. Se trata de una máquina compleja compuesta, por lo general, por un código de programación (software) combinado con un soporte o sustrato físico (hardware).

inteligencia-artificial

Ensayo escrito por Inés Bertrani para la materia Taller Multimedia, de la Universidad Argentina de la Empresa.

INTRODUCCIÓN

¿Podrán las máquinas antropomorfas en un futuro igualar o incluso superar a la inteligencia humana? En las últimas décadas, los discursos científicos y cinematográficos acerca de las nuevas tecnologías han generado una controversia acerca de la posible llegada de una “singularidad tecnológica”, expresada en el surgimiento de seres tecnológicos como el androide y el poshumano. Sin embargo, nuestra tesis de trabajo es que las máquinas jamás podrán superar al hombre, debido a que la mente humana es una estructura compleja, irreducible a fórmulas matemáticas, por ende no replicable. Así, negamos la posibilidad de una “singularidad tecnológica”, y el surgimiento de una inteligencia artificial dura, superior a la humana.

“Lo que necesitamos es generar herramientas que mejoren a las instituciones y que a su vez puedan crear herramientas más efectivas. Lo que quería [en 1951] (y lo que sigo buscando) es superar el coeficiente intelectual colectivo, hacernos más capaces.”

Douglas Engelbart.

En 1951, Douglas Engerlbart, nacido en 1925, dejó por completo todo lo que estaba haciendo para centrarse de lleno en el mundo de los ordenadores, y dedicó su existencia entera a desarrollar herramientas que aumentasen la capacidad y productividad humanas, proyecto de vida que le llevaría en 1968 al desarrollo de un dispositivo que revolucionaría la informática: el mouse o ratón.

Este dispositivo, que fue concebido inicialmente como un indicador de la posición x-y en la pantalla del ordenador para facilitar su manejo al usuario, como un intermediador entre la máquina y el hombre sin necesidad de comunicar al pc mediante instrucciones u órdenes, está inspirado en las ideas de Vannevar Bush (As we may think), quien en 1945 ya soñaba con “navegar” entre hipertextos con su máquina Memex.

El término ciborg, contracción lingüística de las voces inglesas cybernetic y organism, remite a un ser humano cuyo organismo ha sido sometido a un proceso de invasión tecnológica que le ha permitido, en algún sentido, superar las barreras biológicas, físicas y mentales de su propia naturaleza. Se trata de un ser originalmente humano que ha comenzado a adquirir atributos y propiedades antes reservadas a las máquinas, y se ha acercado a los productos de su propia tecnología. El ciborg es una entidad de naturaleza mixta, una criatura híbrida del imaginario cultural ubicada a mitad de camino entre la biología y la tecnología, hecha de máquina y humano, de carne y metal, de carbono y silicio, de genes y código binario.

La mitología cinematográfica asociada al imaginario ciborg nace tímidamente en 1935 en el filme “Las Manos de Orlac” (Stephen Orlac es un pianista impelido a actuar criminalmente por el influjo de las manos biológicas de un asesino que son implantadas quirúrgicamente en su organismo), continúa su rumbo en 1958 en “El coloso de Nueva York” (el cerebro de Jeremy Spenser, un prestigioso científico muerto en un accidente automovilístico, es insertado en un enorme cuerpo mecánico que opera como extensión física de sus capacidades mentales) y alcanza cierta madurez en 1964 en el filme “Dr. Strangelove” (el doctor Strangelove, ex científico nazi y asesor del presidente norteamericano, no logra controlar el impulso de un brazo mecánico implantado en su cuerpo que revela sus intenciones fascistas). Estos primeros filmes, limitados por la técnica pero prematuros en conceptos, reflejan desde el origen los miedos y fantasías asociados a la inclusión de extensiones artificiales en el organismo, y preparan de forma primitiva el imaginario vinculado a estas nuevas posibilidades técnicas.