https://oldcivilizations.wordpress.com
La ciencia y la tecnología avanzan con una aceleración desenfrenada, especialmente desde finales del siglo XIX. Los avances en campos como la electrónica, computación cuántica, robótica, realidad virtual, inteligencia artificial, nanotecnología, astrofísica, bioingeniería, medicina, etc…, tendrán gran impacto en nuestras vidas. Lo que antes sucedía en más de una generación, ahora se produce en tan solo unos pocos años, en una constante aceleración.
En 2002, tras apenas unos 12 años de investigación, logramos desvelar nuestro código genético gracias al proyecto Genoma Humano, un proyecto internacional de investigación científica con el objetivo fundamental de determinar la secuencia de pares de bases químicas que componen el ADN e identificar y cartografiar los aproximadamente 20.000-25.000 genes del genoma humano desde un punto de vista físico y funcional. Ese avance provocó una espectacular revolución tecnológica en la secuenciación del ADN. Asimismo, cuando miramos los numerosos puntos de luz de un cielo estrellado nos preguntamos cuántas estrellas habrá en el firmamento. Pues bien, la respuesta podría saberse pronto gracias al “Gran telescopio para rastreos sinópticos” (Large Synoptic Survey Telescope o LSST), un telescopio de 8,4 metros, capaz de examinar la totalidad del cielo visible, que se construirá en el norte de Chile y entrará en funcionamiento en el año 2022. Uno de sus constructores, el astrofísico Nicholas Suntzeff, participó en 1998 en el descubrimiento de que el universo no sólo se expande, sino que además, lo hace en aceleración. Se espera que el nuevo telescopio permita examinar la totalidad del cielo visible. No obstante, no sólo hemos empezado la catalogación de la luz visible del universo, sino también de lo que no podemos ver. Ya hay proyectos que han comenzado a mapear la materia oscura. Según Suntzeff: “En los próximos 20-30 años, trazaremos un mapa con todas las galaxias del universo, excepto las más pequeñas. Podremos ir a Google Sky y mirar en nuestro iPad cualquiera de las 300-500 mil millones de galaxias registradas”.
Tengo la impresión de que, en la época moderna, el pistoletazo de salida científico se produjo en 1662, cuando se reunieron en el Gresham College doce hombres dispuestos a escuchar una disertación sobre la astronomía pronunciada por un desconocido de 28 años llamado Christopher Wren (1632 – 1723), que llegó a ser un científico y arquitecto, famoso por sus trabajos de reconstrucción de las iglesias de Londres. Tras el gran incendio de 1666 fue nombrado fellow de la Royal Society. Wren es conocido por su diseño de la catedral de San Paul de Londres, una de las pocas catedrales de Inglaterra edificadas después de la época medieval y la única de estilo renacentista de todo el país. Se inspiró en la basílica de San Pedro de Roma para el diseño. La velada derivó en la decisión unánime de formar una sociedad para fomentar “la acumulación y propagación de conocimientos útiles para la humanidad”. En efecto, cuando el poder de la religión empezó a disminuir, fue creado otro poder, al que llamamos ciencia. Se tuvo que encontrar una alternativa para aquellos que rechazarían la religión, a fin de asegurar que no se darían cuenta de que somos conciencia infinita multidimensional encarnada en un cuerpo físico para un período de experiencia intensa en el camino de la evolución. La energía es conciencia y la energía no puede ser destruida, sólo transformada en otra expresión. No somos nuestro cuerpo físico, sino la conciencia infinita y eterna que da vida a ese cuerpo y a la visión de nosotros mismos, y cuyo potencial se ve ampliado sin límites. Así que, a través de las redes masónicas, la Royal Society fue creada en Londres, bajo el auspicio real de Carlos II en 1662. Fue la primera asamblea del mundo de científicos y ingenieros, e iba a ser la influencia dominante sobre la dirección futura de la ciencia. Prácticamente todos los miembros fundadores de la Royal Society eran francmasones. El padre fundador de la Royal Society era Francis Bacon, un alto miembro rosacruz, traductor de la Biblia, y arquitecto de la masonería. Aunque se suele considerar el año 1662 como el de su fundación, años antes ya existía un grupo de científicos que se reunía con cierta periodicidad. Varios científicos famosos estuvieron involucrados en su fundación o han participado en su historia. Entre otros, tenemos nada menos que a Charles Darwin, Robert Boyle, Robert Hooke, Gottfried Leibniz, Benjamin Franklin, Michael Faraday, Sir Christopher Wren, Sir Isaac Newton, Stephen Hawking, Adam Smith, Sigmund Freud, Albert Einstein, Alan Turing, o Elon Musk. Tal vez ellos han colaborado en abrir la caja de Pandora.
Y aquí quiero hace referencia a que, tal vez, en otras civilizaciones más antiguas se haya impuesto un secreto a una ciencia más evolucionada de lo que creemos. Tal parece ser el origen de la leyenda de los Nueve Desconocidos, que se remonta al emperador Asoka, que reinó en la India a partir del año 273 a.C. Era nieto de Chandragupta, primer unificador de la India. Ambicioso como su antepasado, emprendió la conquista del país de Kalinga, que se extendía desde la actual Calcuta a Madrás. Los kalingueses resistieron y perdieron cien mil hombres en la batalla. La vista de esta multitud sacrificada trastornó a Asoka. Desde entonces, le tomó horror a la guerra. Renunció a proseguir la integración de los países insurrectos, declarando que la verdadera conquista consiste en ganar el corazón de los hombres por la ley del deber y la piedad, pues deseaba que todos los seres animados disfrutasen de seguridad, de la paz y de la felicidad. Convertido al budismo, Asoka, con el ejemplo de sus propias virtudes, propagó esta religión por toda la India y por todo su imperio, que se extendía hasta Malasia, Ceilán e Indonesia. Después, el budismo se extendió a Nepal, el Tibet, la China y Mongolia. Asoka respetaba, empero, todas las religiones. Predicó el vegetarianismo y proscribió el alcohol y los sacrificios de animales. H. G. Wells, en su Historia del mundo abreviada, escribe: «Entre las decenas de millares de nombres de monarcas que se apretujan en las columnas de la Historia, el nombre de Asoka brilla casi solo, como una estrella». Se dice que, conocedor de los horrores de la guerra, el emperador Asoka quiso prohibir para siempre a los hombres el mal uso de los conocimientos. Bajo su reinado, entra en el secreto la ciencia de la Naturaleza. Las investigaciones, desde la estructura de la materia a las técnicas de la psicología colectiva, se disimularán en adelante, y durante veintidós siglos, detrás del rostro místico de un pueblo al que el mundo considera dedicado sólo al misticismo, Asoka fundó la más poderosa sociedad secreta de la Tierra: la de los Nueve Desconocidos. Se dice aún que los grandes responsables del destino moderno de la India creen en la existencia de los Nueve Desconocidos, e incluso reciben de ellos consejos y mensajes. ¿Cuáles son los objetivos de estos hombres? Aparentemente no dejar que caigan en manos profanas los medios de destrucción. Estos Nueve Desconocidos se supone que se renuevan para guardar los secretos técnicos venidos de un remoto pasado y, de este modo, evitar que se abra la caja de Pandora.
La caja de Pandora es un mítico recipiente de la mitología griega, tomado de la historia de Pandora, considerada la primera mujer, que fue creada por Hefesto por orden de Zeus. Este recipiente contenía todos los males del mundo. La historia cuenta que Zeus, deseoso de vengarse de Prometeo por haber robado el fuego, o conocimiento, y dárselo a los humanos, presentó al hermano de este, Epimeteo, una mujer llamada Pandora, con quien este se casó. Como regalo de bodas, Pandora recibió un misterioso pithos, una tinaja ovalada, aunque actualmente sea citada y aceptada como una caja, con instrucciones de no abrirlo bajo ningún concepto. Los dioses habían otorgado a Pandora una gran curiosidad, por lo que decidió abrir la tinaja para ver qué había dentro. Al abrirlo, escaparon de su interior todos los males del mundo. Cuando atinó a cerrarla, solo quedaba en el fondo Elpis, el espíritu de la esperanza, el único bien que los dioses habían metido en ella. De esta historia parece que surgió la expresión «La esperanza es lo último que se pierde». Hoy en día, la expresión «abrir una caja de Pandora» significa una acción que puede atraer consecuencias catastróficas. Es en la Ilíada donde se utiliza este término. Se explica que en la casa de Zeus había dos jarras, una encerraba los bienes, la otra encerraba los males. La Teogonía de Hesíodo no lo evoca, y únicamente anuncia que, sin mujer, la vida del hombre es impracticable. Hesíodo clasifica a Pandora como «mal bello». Para el nombre «Pandora» hay varios significados: panta dôra, (que tiene todos los dones) o pantôn dôra (que tiene dones de todos los dioses).
Pero las informaciones sobre los Nueve Desconocidos son raras. Una de ellas tiene relación con uno de los hombres más misteriosos de Occidente: el Papa Silvestre II, conocido también por el nombre de Gerbert d’Aurillac. Nacido en Auvernia, el año 920, y muerto en 1003, Gerbert fue monje benedictino, profesor de la Universidad de Reims, y arzobispo de Rávena por la gracia del emperador Otón III. Se dice que estuvo en España y que un misterioso viaje lo llevó a la India, de donde sacó diversos conocimientos que llenaron de estupefacción a los que le rodeaban. Así fue como poseyó en su palacio una cabeza de bronce que respondía «sí» o «no» a las preguntas que le hacían sobre la política y la situación general de la cristiandad. Según Silvestre II, el procedimiento era muy sencillo y correspondía al cálculo con dos cifras. Se trataría de un autómata análogo a nuestras actuales computadoras binarias. La cabeza «mágica» fue destruida a la muerte del Papa, y los conocimientos registrados por ésta, desaparecieron. Sin duda la biblioteca del Vaticano reservaría algunas sorpresas al respecto. En el número de octubre de 1954 de Computers and Automation, revista de cibernética, podemos leer: «Hay que suponerle un hombre de saber extraordinario, de un ingenio y una habilidad mecánica sorprendentes. Esta cabeza parlante debió de ser modelada bajo cierta conjunción de las estrellas que se sitúa exactamente en el momento en que todos los planetas van a comenzar su curso.» No era cuestión de pasado, de presente ni de futuro, pues este invento, aparentemente, superaba con mucho el alcance del perverso espejo en la pared de la reina del cuento de Blancanieves, precursor de nuestros cerebros electrónicos modernos. Se dijo, naturalmente, que Gerbert d’Aurillac fue sólo capaz de producir esta máquina porque estaba en tratos con el diablo y le había jurado eterna fidelidad. ¿Estuvieron otros occidentales en relación con la sociedad de los Nueve Desconocidos ? Hay que esperar al siglo XIX para que resurja este misterio, al través de los libros del escritor francés Louis Jacolliot.
Jacolliot fue cónsul de Francia en Calcuta bajo el Imperio Británico. Escribió una obra, Historia de las vírgenes, personas y continentes desaparecidos, de anticipación comparable a la de Julio Verne. Ha dejado además varios libros consagrados a los grandes secretos de la Humanidad. Entre otras cosas, afirmaba que había unas «tabletas sánscritas» que contaban la historia de un continente (llamado Rutas) hundido en el océano Índico. Sin embargo, él reubicó este continente perdido en el océano Pacífico y lo relacionó con el mito de Atlántida. Este «descubrimiento» es similar al origen de la historia del continente Mu. Jacolliot escribió que la sociedad de los Nueve Desconocidos era una realidad. Y lo más extraordinario es que cita, a este respecto, técnicas que eran del todo inconcebibles en 1860, como, por ejemplo, la liberación de la energía, la esterilización por radiaciones y también la guerra psicológica. El médico y bacteriólogo franco-suizo Alexandre Emile John Yersin, uno de los más próximos colaboradores de Pasteur y de Roux, pudo haber tenido acceso a secretos biológicos a raíz de un viaje a Madrás, en 1890, y puesto a punto, gracias a las indicaciones que recibieron, el suero contra la peste y el cólera. La primera divulgación de la historia de los Nueve Desconocidos se produjo en 1927, con la publicación del libro Los Nueve Desconocidos, de Talbot Mundy, que perteneció a la Policía inglesa de la India. El libro está a medio camino entre la novela y la investigación. Según él, los Nueve Desconocidos emplearían un lenguaje sintético. Cada uno de ellos estaría en posesión de un libro constantemente escrito de nuevo y que contendría la exposición detallada de una ciencia. El primero de estos libros estaría consagrado a las técnicas de propaganda y de guerra psicológica. «De todas las ciencias —dice Mundy— la más peligrosa sería la del control del pensamiento de las multitudes, pues ella permitiría gobernar el mundo entero». Es curioso como concuerda con las técnicas de control mental que se utilizan durante los últimos decenios. Hay que observar que la Semántica general de Korjibski data de 1937, y que hay que esperar la experiencia de la segunda guerra mundial para que empiecen a cristalizar en Occidente las técnicas de psicología del lenguaje, es decir, de propaganda. El primer colegio de semántica americano no ha sido creado hasta 1950. En Francia se tiene Le Viol des Foules, de Serge Chokotin, cuya influencia ha sido importante en los medios intelectuales, aunque no haga más que rozar la cuestión.
El segundo libro estaría consagrado a la fisiología. Como cosa más importante, explicaría el medio de matar a un hombre con sólo tocarle, produciéndose la muerte por inversión del influjo nervioso. Se dice que el «judo» pudo nacer de «infiltraciones» de esta obra. El tercero estudiaría la microbiología, y especialmente los coloides de protección. El cuarto trataría de la transmutación de los metales. Según una leyenda, en tiempos de penuria, las organizaciones religiosas de caridad reciben, de fuente secreta, grandes cantidades de un oro muy fino. El quinto comprendería el estudio de todos los medios de comunicación, terrestres y extraterrestres. El sexto contendría los secretos de la gravitación. El séptimo sería la más vasta cosmogonía concebida por nuestra Humanidad. El octavo trataría de la luz. El noveno estaría consagrado a la sociología, formularía las reglas de la evolución de las sociedades y permitiría prever su caída. Con la leyenda de los Nueve Desconocidos se relaciona el misterio de las aguas del Ganges. Multitudes de peregrinos, portadores de diversas enfermedades, se bañan sin ningún peligro para los que están sanos. Las aguas sagradas lo purifican todo. Se ha querido atribuir esta extraña propiedad del río a la formación de bacteriófagos. Pero, ¿por qué no se forman también en otros ríos? La hipótesis de una esterilización por radiaciones aparece en la obra de Jacolliot, cien años antes de que se sepa que tal fenómeno es posible. Estas radiaciones, según Jacolliot, provendrían de un templo secreto excavado bajo el lecho del Ganges. Al margen de las agitaciones religiosas, sociales y políticas, resueltas y perfectamente disimuladas, los Nueve Desconocidos encarnan la imagen de la ciencia serena, de la ciencia con conciencia. Dueña de los destinos de la Humanidad, pero absteniéndose de emplear su propio poderío, esta sociedad secreta constituye el más bello homenaje de la libertad en las alturas. Vigilantes en el seno de su gloría oculta, estos nueve hombres contemplan cómo se hacen, deshacen y rehacen las civilizaciones, menos indiferentes que tolerantes, prestos a ayudar, pero siempre en este orden del silencio que es la medida de la grandeza humana.
¿Pretende el Gran Colisionador de Hadrones del CERN abrir un portal dimensional?. Esta es una de las preguntas que surgen con respecto a este gigantesco acelerador de partículas ubicado en Ginebra. Un año después de la gran inauguración del CERN, Sergio Bertolucci, exdirector de Investigación e Informática Científica del CERN, afirmó que el Gran Colisionador de Hadrones podría abrir puertas a otra dimensión en “un lapso de tiempo muy pequeño“, añadiendo que quizá fuese suficiente “para mirar en el interior de esa puerta abierta, para obtener o enviar algo“. Este comentario generó entre la comunidad científica una preocupación relacionada con el riesgo existente de que el colisionador permita la entrada a nuestro mundo a visitantes de otras dimensiones espacio-temporales, tal vez el regreso de los dioses de la antigüedad, o que nosotros entremos en otras dimensiones espacio-temporales. De acuerdo con la profesora Irina Arefeva y el Dr. Igor Volovich, ambos físicos matemáticos en el Instituto de Matemáticas Steklov, en Moscú, las energías generadas por las colisiones subatómicas en el LHC pueden ser lo suficientemente potentes como para rasgar el espacio-tiempo, generando agujeros de gusano. Algunos científicos creen que el LHC puede producir suficiente energía como para abrir agujeros de gusano, lo que lo convierte en un dispositivo similar al de la serie televisiva Stargate. Hace tres años, su puesta en marcha permitió descubrir la evidencia de la existencia del bosón de Higgs, también conocida como la ‘partícula de Dios’. Ahora se pretende usar este colisionador para hacer chocar entre sí partículas subatómicas a casi la velocidad de la luz, en un intento por recrear las condiciones existentes tras el Big Bang. Por otro lado, el dios Shiva, que figura a la entrada del CERN, es el dios de la creación y de la destrucción, que con su danza mantiene el ritmo sin fin del universo. ¿Se imaginan que la entrada en la Era de Acuario coincida con la entrada en otras dimensiones espacio-temporales?
El 8 de octubre de 2013 le fue concedido a Peter Higgs, junto a François Englert, el Premio Nobel de física “por el descubrimiento teórico de un mecanismo que contribuye a nuestro entendimiento del origen de la masa de las partículas subatómicas, y que, recientemente fue confirmado gracias al descubrimiento de la predicha partícula fundamental, por los experimentos ATLAS y CMS en el Colisionador de Hadrones del CERN“. Un equipo científico internacional cree que puede encontrar pruebas de la existencia de universos paralelos dentro del Gran Colisionador de Hadrones, el acelerador de partículas de la Organización Europea para la Investigación Nuclear (CERN), en Ginebra. La demostración de la existencia de “universos reales en otras dimensiones” consistiría en detectar agujeros negros en miniatura a un cierto nivel de energía generado por el acelerador de partículas, reiniciado en marzo de 2016, explicó el físico Mir Faizal, de la Universidad de Waterloo (Canadá). “El colisionador de hadrones (LHC) tiene una probabilidad del 75% de extinguir la Tierra“. Esto parece un titular sacado de la ciencia ficción, pero no lo es. De hecho, el 2 de abril de 2008 varios científicos denunciaron ante un tribunal de Hawai las actividades del el colisionador de hadrones (LHC). Uno de ellos es un físico español, Luis Sancho, quién fue entrevistado en varios medios de prensa sin obtener la cobertura necesaria y sin que la noticia trascendiera a los medios de comunicación. El estadounidense Walter Wagner y el español Luis Sancho denunciaron al CERN, que gestiona el LHC, al Gobierno de Estados Unidos, que aporta financiación, y a dos instituciones más que lo apoyan. Finalmente, el juez de Hawai desestimó la demanda contra el LHC del CERN, ya que se considera que no destruirá el mundo. Las bases científicas esgrimidas por estos físicos parecen coherentes, pero el expediente sigue paralizado ante la impasibilidad de la opinión pública, que al no ser científica, carece de los criterios necesarios para opinar.
China pretende construir entre el 2020 y 2025 el acelerador de partículas más grande del mundo, según se ha anunció este jueves. Su construcción busca permitir a los científicos conocer el funcionamiento del universo. “El diseño estará terminado antes de 2016“, apuntó el director del Instituto Chino de Física y Altas Energías, Wang Yifang, a un diario del país. De concretarse el proyecto, se espera que sea incluso dos veces más grande que el Gran Colisionador de Hadrones del CERN, y que funciona en medio de críticas de especialistas en la materia. Ya en 2012 el Colisionador permitió confirmar la existencia del bosón de Higgs, partícula elemental en la estructura fundamental de la materia. “El Gran Colisionador de Hadrones genera bosones de Higgs junto a numerosas otras partículas“, dijo Yifang, quien agregó que el futuro colisionador chino “creará un ambiente extremadamente puro que no sólo producirá bosones de Higgs“. Su instalación podría demandar hasta siete veces más energía que el actual colisionador del CERN y doblar la potencia. Con la construcción de este colisionador, China busca situarse como un país líder en ciencias. Stephen Hawking está preocupado por su potencial peligro. “La ‘partícula de Dios’ encontrada por el CERN podría destruir el universo“, escribió Hawking en el prefacio del libro Starmus, una colección de conferencias de científicos. El físico alerta que el bosón de Higgs podría volverse inestable a niveles muy altos de energía, lo que podría causar el colapso instantáneo del espacio y del tiempo. Pero Hawking no es la única voz que predice una posible catástrofe si el CERN continúa por la vía de la aceleración atómica. El astrofísico Neil de Grasse Tyson sostiene que este experimento podría hacer que el planeta “explote“, mientras que Otto Rössler, profesor alemán de la Universidad de Tubinga, que presentó una demanda contra este laboratorio gigante, afirma que esta instalación podría desencadenar la formación de un pequeño agujero negro que, en caso de descontrolarse, podría destruir el planeta. Un año después de la gran inauguración del CERN, Sergio Bertolucci, exdirector de Investigación e Informática Científica del CERN, afirmó que el colisionador podría abrir puertas a otra dimensión. Este comentario generó entre la comunidad científica una preocupación relacionada con el riesgo existente de que el colisionador ‘invite‘, por error, a nuestro mundo a visitantes no deseados de otras dimensiones espacio-temporales o llevarnos a nosotros a otras dimensiones espacio-temporales. Hace tres años, su puesta en marcha permitió descubrir la evidencia de la existencia del bosón de Higgs, también conocida como la ‘partícula de Dios‘. Ahora, se pretende usar este colisionador para hacer chocar entre sí partículas subatómicas a casi la velocidad de la luz, en un intento por recrear las condiciones existentes tras el Big Bang.
Los cuentos infantiles, los mitos y las leyendas están repletos de acciones mágicas. Pues bien, la física actual, especialmente la cuántica, entra de lleno en un mundo de magia, además de ser evidentemente contra-intuitiva. Incluso Richard Feynman, un físico teórico estadounidense que ayudó a unificar la teoría cuántica y la electrodinámica, dijo: “Creo que puedo decir con seguridad que nadie entiende la mecánica cuántica“. Debo reconocer que cuando conocí de que se trataba el concepto de entrelazamiento cuántico quedé muy impresionado. Además podría estar relacionado con la hipotética posibilidad de efectuar una teleportación, que consistiría básicamente en desaparecer de un lugar y aparecer en otro sin pasar por ningún sitio entremedio. En efecto, las posibilidades de una hipotética teleportación funcionarían gracias al entrelazamiento cuántico. Con las partículas entrelazadas, aunque las separes, cuando hacemos algo a una de ellas, la otra lo siente al instante. Por ello, a pesar de haberlas alejado a distancias siderales, siguen conectadas. Eso significa estar entrelazadas. Y gracias a estas partículas entrelazadas, tal vez algún día podremos teleportarnos. Pensemos que incluso los fantasmas, espíritus y otros entes del más allá, además del propio pensamiento, que probablemente están constituidos de materia mucho más sutil y que funciona a una frecuencia que no puede observar el ojo humano, posiblemente también estén formados por partículas subatómicas que estén entrelazadas con las partículas que forman parte de nosotros. Creo que la física cuántica nos abre unas posibilidades enormes para llegar a comprender el mundo que nos envuelve, tanto visible como invisible. El físico teórico Amit Goswami, profesor jubilado del Departamento de Física Teórica de la Universidad de Oregón, es uno de los pioneros en defender la confluencia entre la mecánica cuántica y la espiritualidad, promoviendo la exploración de “una ciencia dentro de la conciencia“. A una pregunta sobre su interpretación del entrelazamiento cuántico, el fenómeno de comunicación entre partículas que parece violar las leyes de la física, ya que ocurre instantáneamente e independientemente de la distancia que las separa, Goswami dice que sugieren la existencia de un dominio que trasciende el tiempo y el espacio. En la mecánica cuántica tenemos la idea de que los objetos son probabilidades, y luego debemos preguntarnos qué es lo que decide cuales son las probabilidades. En términos de Goswami es como si todo fuese un único ser, la conciencia misma, el espacio fundamental donde todo ocurre, donde la distancia, la separación y el movimiento son parte de un divino juego de ilusionismo, en que las partículas entrelazadas en realidad son la misma. De aquí se desprende que la conciencia no sería una propiedad emergente de la materia sino la realidad más profunda y fundamental del universo.
El entrelazamiento es una propiedad cuántica que fue planteada en 1935 por los científicos Albert Einstein, Boris Podolsky y Nathan Rosen. Básicamente se dice que si dos partículas están entrelazadas comparten una conexión que les permite influenciarse la una a la otra de manera instantánea, pese a que estuviesen muy separadas. Imaginemos que tenemos dos monedas cuánticas entrelazadas. Si una de ellas marca cara, la otra siempre tendrá que marcar cruz. Ahora enviaremos una de ellas a Estados Unidos y la otra a Japón. Como son monedas cuánticas, las tendremos marcando cara y cruz simultáneamente, gracias a otro principio cuántico, llamado superposición, que es uno de los principios más peculiares y mágicos de la física cuántica. ¿Qué ocurrirá si observamos que la moneda que está en Estados Unidos marca cara? En ese momento destruimos el efecto de la superposición. Sorprendentemente, la moneda que está en Japón también dejará de estar en una superposición y siempre marcará cruz. En otras palabras, lo que le ocurre a una moneda cuántica afecta a la otra de manera instantánea, a pesar de estar muy alejadas. En un mundo cuántico, las cosas pueden estar en dos sitios al mismo tiempo o de dos maneras distintas. !Es como si se hiciese realidad el fenómeno de la bilocación! En el mundo cuántico las cosas no son blancas o negras, sino blancas y negras a la vez. Y, además, suceden ambas cosas a la vez. Pero el principio de superposición funciona hasta que alguien observa el objeto superpuesto. El simple hecho de mirar neutraliza la superposición. A eso le llamamos colapso de la superposición. En efecto, el principio de superposición es uno de los más llamativos de la física cuántica, aunque no es el único. El principio de superposición nos dice que todas las posibilidades existen al mismo tiempo, lo que abre todo un abanico de hipótesis. La superposición se destruye, o colapsa, en cuanto alguien la observa. Una partícula cuántica, ante una bifurcación, puede pasar por los dos caminos a la vez. !Verdad que parece magia! Pero si decidimos observar cómo hace algo tan sorprendente, por el simple hecho de observar la partícula vemos que decide pasar sólo por uno de los dos caminos.
Algunos científicos creen que en el futuro conseguirán que objetos visibles al ojo humano atraviesen muros, de la misma forma que lo hacen las partículas subatómicas. Es uno de los grandes mitos de la ciencia ficción y de la magia, poder atravesar muros como un fantasma. Sin embargo, las partículas subatómicas pueden realizar esta increíble hazaña a través de un extraño proceso llamado efecto túnel cuántico. Ahora, según publica Science Now, un equipo de físicos dice que podría ser posible observar ese fenómeno, llamado de tunelización, con un objeto artificial de mayor tamaño. Obviamente, la propuesta se enfrenta a grandes desafíos. De tener éxito, el experimento sería un impresionante avance para llevar la mecánica cuántica, que rige el comportamiento de moléculas o átomos, al mundo de los grandes objetos, aquellos que son visibles al ojo humano y que se comportan de forma diferente, de acuerdo a las leyes de la mecánica clásica. En 2010, los físicos dieron un paso clave en esta dirección dirigiendo un diminuto objeto hacia estados de movimiento que pueden describirse mediante la mecánica cuántica. El tunelado sería un logro aún mayor. ¿Cómo funciona este efecto túnel cuántico? Imagina que un electrón, por ejemplo, es una canica situada en uno de dos valles separados por una pequeña colina, que representa los efectos de un campo eléctrico. Para cruzar la colina de un valle al otro, la canica tiene que rodar con suficiente energía. Si tiene muy poca energía, en teoría, nunca podrá alcanzar la cima de la colina y cruzarla. Sin embargo, partículas diminutas como los electrones pueden cruzarla incluso si no tienen energía para escalar la colina. La física cuántica describe estas partículas como ondas extendidas de probabilidad, y resulta que hay una probabilidad de que una de ellas se tunelice a través de la colina y, como si se tratara de magia, se materialice repentinamente en el otro valle. El túnel cuántico en un sistema mecánico es “el tipo de santo grial que la gente busca ahora mismo”, dice el físico Walter Lawrence del Dartmouth College. Eso sí, los cálculos de la mecánica cuántica actual muestran que para cosas tan grandes como una persona, la probabilidad de atravesar un muro es todavía pequeñísima. !Pero la magia cuántica puede cambiar esta percepción!
La teoría cuántica quizá constituya el mejor ejemplo de cómo lo muy sorprendente acaba siendo profundamente útil. Sorprendente, porque describe un mundo en el que una partícula puede realmente estar en varios lugares al mismo tiempo, y se mueve de un sitio a otro explorando de manera simultánea el universo entero. Y útil, porque entender el comportamiento de los componentes más pequeños del universo es la base sobre la que se construye nuestra comprensión de todo lo demás. En cierta ocasión el gran físico Niels Bohr comentaba a Werner Heisenberg, otro gran físico: “Hace algún tiempo se celebraron aquí, en Copenhague, unas sesiones de filosofía a las que asistieron, principalmente, partidarios de la moderna tendencia positivista. Los representantes de la escuela de Viena desempeñaron en ella un papel importante. Ante estos filósofos traté de hablar sobre la interpretación de la teoría cuántica. Tras mi conferencia no hubo objeción alguna, ni me plantearon preguntas difíciles; pero he de confesar que esta actitud me causó mayor frustración, pues cuando a alguien no le extraña la teoría cuántica, es indicio de que no la ha comprendido. Es probable que mi conferencia fuera tan mala, que nadie captara su contenido”. El mundo está repleto de fenómenos diversos y complejos. Pero, a pesar de esta complejidad, hemos descubierto que todas las cosas están construidas a partir de un puñado de diminutas partículas que se comportan según las reglas de la teoría cuántica. Tales reglas son tan sencillas que se pueden resumir en unas pocas líneas. Y el hecho de que no sea necesaria una biblioteca entera para explicar la naturaleza esencial de las cosas es uno de los mayores misterios. Hemos descubierto que todas las cosas no son más que conjuntos de átomos, y que la gran variedad de átomos que existen están compuestos básicamente por tres partículas: electrones, protones y neutrones. También hemos descubierto que los protones y los neutrones están a su vez formados por entidades más pequeñas llamadas quarks, así como otras partículas. Y en la base de todo esto se encuentra la teoría cuántica. La teoría cuántica proporciona una descripción de la naturaleza que posee una inmensa capacidad predictiva y explicativa para una enorme variedad de fenómenos, desde los chips de silicio a las estrellas.
Tenemos otro principio básico en la teoría cuántica, que es el principio de incertidumbre de Heisenberg, que debemos al físico y filósofo alemán Werner Karl Heisenberg. Este principio nos dice básicamente que no se puede estar en una posición exacta a una velocidad exacta. En resumen, nos dice que no podemos conocer la posición de las partículas, o sea, dónde están exactamente y su velocidad al mismo tiempo. Al menos, no de manera exacta. Esto tiene efectos curiosos. Por ejemplo, si una partícula estuviese parada, con velocidad cero, debería ocupar un espacio infinito, que podría estar en cualquier sitio. Por otro lado, si supiésemos exactamente dónde está la partícula, no sabríamos si se mueve o no. Si conociésemos una de las dos magnitudes exactamente, la otra la desconoceríamos por completo. Cuando se observa una partícula subatómica, podemos elegir medir, entre otras cantidades, la posición de la partícula y su momento, que sería la cantidad definida como la masa de la partícula multiplicada por su velocidad. Pero, en la teoría cuántica, el principio de incertidumbre de Heisenberg nos dice que estas dos cantidades nunca podrán ser medidas simultáneamente con precisión. Podemos obtener un conocimiento exacto de la posición de la partícula y no saber nada de su momento y, por lo tanto, de su velocidad, o viceversa; o bien podemos tener un impreciso conocimiento de ambas cantidades. Pero esta limitación no tiene nada que ver con lo imperfecto de nuestras técnicas de medición. Es una limitación inherente a la realidad atómica. Si deseamos medir la posición de la partícula con precisión, sencillamente la partícula no tendrá un momento bien definido, y si decidimos medir el momento, no tendrá una posición clara. Vemos que en la física atómica el científico no puede jugar el papel de un observador imparcial objetivo, sino que se ve involucrado e inmerso en el mundo que observa, hasta el punto en que influencia en las propiedades de los objetos observados. El físico John Wheeler considera que este involucramiento del observador constituye la característica más destacable de la teoría cuántica y ha sugerido reemplazar la palabra “observador” por la de “partícipe“. Estas son sus palabras: “En este principio cuántico, nada es más importante que esto, pues destruye el concepto del mundo como ‘algo exterior’, donde el observador está aislado de él por una gruesa placa de cristal de 20 centímetros. Incluso para observar un objeto tan minúsculo como un electrón, tendrá que destruir el cristal. Tendrá que penetrar e instalar su equipo de medición. A él le corresponderá decidir si medirá la posición o el momento. Instalar el equipo para medir lo uno, impide y excluye su instalación para medir lo otro. Además, la propia medición varía y modifica el estado del electrón. El universo nunca será ya el mismo. Para describir lo que ha ocurrido, se hace necesario borrar la vieja palabra ‘observador’ y colocar en su lugar la de ‘partícipe’“. En cierto extraño sentido, el universo es un universo de participación, en que cada uno de nosotros construye su propia realidad.
Las partículas subatómicas, escribió Feynman, «no se comportan como ondas, no se comportan como partículas, no se comportan como nubes, o bolas de billar, o pesas en muelles, o nada que hayamos visto antes». En 2010, Vlatko Vedral publicó en Oxford una obra titulada Descodificando la realidad. En ella Vedral sostiene que el universo no estaría compuesto de materia ni de energía sino nada menos que de información. El profesor Vedral fue entrevistado por Eduard Punset, divulgador científico español, en el programa Redes, programa de televisión de divulgación científica de Televisión Española. En la presentación del programa se decía, introduciendo el pensamiento de Vedral: “La escala más pequeña del universo –la que se rige por las leyes de la física cuántica– parece un desafío al sentido común. Los objetos subatómicos pueden estar en más de un sitio a la vez, dos partículas en extremos opuestos de una galaxia pueden compartir información instantáneamente, y el mero hecho de observar un fenómeno cuántico puede modificarlo radicalmente. Pero lo más extraño de todo –según explica el físico de la Universidad de Oxford, Vlatko Vedral, a Eduard Punset en este capítulo de Redes– es que el universo mismo no estaría compuesto de materia ni de energía, sino de información”. Más adelante, Vedral comienza a explicar esta última afirmación, a saber, que la información es más importante que la materia o la energía, hasta el punto de que el verdadero componente radical del universo sería la información. Para Vedral esto quiere decir que antes de que existiera materia o energía, existía ya información: “Sí. Es una idea muy extraña que está surgiendo en mi campo de investigación. Cuando analizamos las unidades fundamentales de la realidad, las que lo componen todo a nuestro alrededor, creo que ya no debemos pensar en estas unidades como fragmentos de energía o materia, sino que deberíamos pensar en ellas como unidades de información. Me parece que la mecánica cuántica, nuevamente, supone la clave para entender este fenómeno, porque la mecánica cuántica tiene otra propiedad (que supongo que a personas como Einstein no les gustaba) que es la siguiente: en la mecánica cuántica no se puede decir que algo exista o no, a no ser que se haya realizado una medición, así que es impreciso decir: «tenemos un átomo situado aquí», a no ser que hayamos interactuado con ese átomo y recibido información que corrobore su existencia ahí. Por ende, es incorrecto lógica y físicamente, o mejor dicho experimentalmente, hablar de fragmentos de energía o materia que existan con independencia de nuestra capacidad de confirmarlo experimentalmente. De algún modo, nuestra interacción con el mundo es fundamental para que surja el propio mundo, y no se puede hablar de él independientemente de eso. Por esta razón, mi hipótesis es que, en realidad, las unidades de información son lo que crea la realidad, no las unidades de materia ni energía. Ya no debemos pensar en las unidades más elementales de la realidad como fragmentos de energía o materia, sino que deberíamos pensar en ellas como unidades de información”. !Realmente revolucionario!
Un equipo de físicos ha demostrado que construir agujeros de gusano puede ser posible sin la necesidad de energía negativa. Según Burkhard Kleihaus de la Universidad de Oldenburg, en Alemania: “Ni siquiera necesitas materia normal con energía positiva. Los agujeros de gusano pueden mantenerse abiertos con nada”. Los resultados plantean la extraordinaria posibilidad de que podamos ser capaces de detectar un agujero de gusano en el espacio. Tal vez civilizaciones extraterrestres mucho más avanzadas que la nuestra pueden ya estar yendo y viniendo a través de un sistema equivalente a la de un “metro galáctico” formado por agujeros de gusano. Y, con el paso del tiempo, podríamos incluso ser capaces de usarlos nosotros mismos como portales a otros universos. Parece que en la Tierra existen lugares donde supuestamente se abren Portales Dimensionales a otras estrellas y galaxias del universo, y también a otros planos y dimensiones. En el pasado tal vez habría habido civilizaciones con este conocimiento y probablemente por eso construyeron en estos lugares pirámides, templos y círculos de piedra para hacer un puente de comunicación entre la Tierra y algún lugar galáctico. Se dice que existen dos tipos de portales dimensionales, los naturales, que existirían por sí solos en nuestro planeta, de forma natural, y los artificiales, que son o han sido construidos por el hombre o por seres inteligentes, posiblemente extraterrestres. Se supone que los portales naturales sólo nos llevarían a otra dimensión, pero no nos permitirían regresar. Otra noticia reciente plantea una nueva teoría que dice que los agujeros negros podrían ser el portal a otras nueve dimensiones, y relaciona al CERN en la búsqueda de estos portales dimensionales. El choque de partículas que circulan en direcciones opuestas busca, entre otras cosas, encontrar una partícula capaz de abrir un portal. En lugares como el triángulo de las Bermudas, las desapariciones están precedidas por tormentas eléctricas, o alteraciones magnéticas. Es decir hay un reajuste en la combinación de fuerzas opuestas, provocando de esta manera una apertura dimensional. En 1955, el físico estadounidense John Wheeler demostró que era posible conectar dos regiones del espacio en nuestro propio universo, lo cual posibilitaría un viaje intergaláctico rápido. Pero es al astrónomo y divulgador científico estadounidense Carl Sagan a quién se le atribuye el que el tema de los agujeros de gusano siguiese adelante. En su novela de ciencia ficción Contact necesitaba un método de transporte galáctico rápido y científicamente posible. Sagan pidió ayuda al físico teórico estadounidense y ganador del Premio Nobel de Física, Kip Thorne, del Instituto Tecnológico de California, en Pasadena. Thorne se dio cuenta de que un agujero de gusano resolvería el problema planteado por Sagan.
Los científicos creen que el bosón de Higgs es la partícula que da a toda la materia su masa, entendiendo por masa la cantidad de materia en los sentidos de gravedad e inercia. Los expertos saben que las partículas elementales, como los quarks y los electrones, son la base sobre la cual se construye toda la materia del universo. El bosón de Higgs, también llamado Partícula de Dios, es al final el responsable de que tengamos masa. Sin él, en una balanza la materia siempre marcaría cero. Cuando estamos cerca de un campo de Higgs, cada vez les cuesta más moverse a las partículas de materia, o, dicho de otro modo, van adquiriendo masa. La existencia del bosón de Higgs y del campo de Higgs asociado serían el más simple de varios métodos del modelo estándar de física de partículas que intentan explicar la razón de la existencia de masa en las partículas elementales. Esta teoría sugiere que un campo impregna todo el espacio, y que las partículas elementales que interactúan con él adquieren masa, mientras que las que no interactúan con él, no la tienen. Por ello se ha utilizado el nombre de Partícula de Dios, ya que aparentemente es la partícula causante de la existencia de materia. El comportamiento de las partículas sin masa se entiende en virtud de la relatividad especial. Por ejemplo, estas partículas sin masa siempre deben moverse a la velocidad de la luz. Los físicos de partículas sostienen que la materia está hecha de partículas fundamentales, cuyas interacciones están mediadas por partículas de intercambio conocidas como partículas portadoras. A comienzos de la década de 1960 se habían descubierto o propuesto un número de estas partículas, junto con las teorías que sugieren cómo se relacionaban entre sí. Sin embargo era conocido que estas teorías estaban incompletas. La mecánica cuántica ha permitido conocer mejor el comportamiento de los átomos y moléculas, hecho de enorme importancia para la química. Las futuras aplicaciones de la superconductividad, fenómeno cuyo estudio es imposible sin la mecánica cuántica, marcarán el futuro de la Humanidad. Así podremos maravillarnos, como si volviésemos a un mundo mágico, de las consecuencias tecnológicas y filosóficas de esta nueva ciencia. El comportamiento de los sistemas cuánticos es difícil de comprender si lo queremos hacer basándonos en nuestra intuición, que tanto nos ha servido en el pasado. Ante la confrontación entre mecánica cuántica e intuición se presentan dos alternativas, o abandonamos la teoría cuántica o educamos y cambiamos nuestra intuición. Se abre una nueva y sorprendente era ante nosotros. Depende del ser humano que sea una nueva Edad de Oro.
Podríamos ver toda una revolución en el campo de la electrónica, gracias a los avances en la ingeniería cuántica. Según Lawrence Krauss, físico de la Universidad Estatal de Arizona: “Podremos manipular exquisitamente la materia en escalas pequeñas y crear nuevos sistemas bidimensionales, como el grafeno y los fullerenos (buckyballs), capaces de aprovechar las propiedades mecánico-cuánticas de la materia para producir nuevos materiales con nuevas y apasionantes aplicaciones en campos como la electrónica y la construcción”. Se habla mucho de la impresión 3D, pero eso no es nada en comparación con los avances que han permitido a los científicos “imprimir” átomo a átomo, dando lugar a materiales con propiedades especiales, como el grafeno o los nanotubos de carbono. Pero, ¿qué es el grafeno? El grafeno es una sustancia formada por carbono puro, con átomos dispuestos en un patrón regular hexagonal, similar al grafito, pero en una lámina de solo un átomo de espesor. Este patrón hexagonal, en que tenemos un átomo de carbono en cada uno de los vértices del hexágono, se une con otras estructuras hexagonales, utilizando 2 átomos de carbono como elementos comunes. Ello implica que si enlazamos siete estructuras hexagonales, con una de ellas como núcleo, el total de estructuras hexagonales de carbono enlazadas con la que actúa como núcleo sería de 6. El grafeno es muy ligero, ya que una lámina de 1 metro cuadrado pesa tan solo 0,77 miligramos. Se considera 200 veces más fuerte que el acero y su densidad es aproximadamente la misma que la de la fibra de carbono. Además es aproximadamente cinco veces más ligero que el aluminio. Un equipo de científicos de los Estados Unidos están trabajando en el desarrollo de lo que podría ser el microprocesador del futuro. Se trata de la construcción de circuitos basados en grafeno, un material desde el punto de vista químico no muy diferente al grafito de la mina de un lápiz, pero con una estructura perfectamente ordenada, con el que se podría reemplazar el silicio. Aún deben encontrar la manera de controlar el flujo de electrones que circula por el interior del material, pero han hecho avances significativos. Con una estructura atómica similar a la de una tela metálica, el grafeno se presenta en láminas de un solo átomo de espesor, característica que lo convierte en el material más delgado del mundo. Si apilásemos dos millones de láminas de grafeno una encima de la otra, obtendríamos una placa mucho más delgada que una tarjeta de crédito. Pero además de ser una curiosidad científica, el grafeno está comenzando a ser utilizado en el desarrollo de muchas tecnologías que, como ocurre con los nanotubos de carbono, tienen el potencial de cambiar el futuro.
Las tecnologías específicamente diseñadas para rastrear y monitorear los seres humanos se encuentran en pleno desarrollo. En un mundo virtual, la inteligencia artificial y el software asociado son ahora capaces de observarnos en tiempo real, llegando incluso a hacer predicciones de nuestro comportamiento futuro y enviar señales a estaciones encargadas de la supervisión, en función de cómo los algoritmos interpretan nuestras actividades. Ya esto, de por sí, es un escenario preocupante. Pero lo más alarmante, sin embargo, es lo que está sucediendo en el mundo real. De acuerdo con los investigadores que trabajan en microchips para seres humanos, es sólo una cuestión de tiempo antes de que estos dispositivos tengan un consenso a gran escala. Debo reconocer que, al ser consciente de la estructura hexagonal del grafeno y, además, de que el átomo de carbono contiene 6 protones, 6 neutrones y 6 electrones libres, me vino a la mente el tema del famoso 666. En efecto, en el Apocalipsis 13:(16 a 18), leemos lo siguiente: “Y hacía que a todos, pequeños y grandes, ricos y pobres, libres y esclavos, se les pusiese una marca en la mano derecha, o en la frente; y que ninguno pudiese comprar ni vender, sino el que tuviese la marca o el nombre de la bestia, o el número de su nombre. Aquí hay sabiduría. El que tiene entendimiento, cuente el número de la bestia, pues es número de hombre. Y su número es seiscientos sesenta y seis”. Por otro lado, “con una estructura atómica similar a la de una tela metálica, el grafeno se presenta en láminas de un solo átomo de espesor, característica que lo convierte en el material más delgado del mundo. Si apilases dos millones de láminas de grafeno una encima de la otra, obtendrías una placa mucho más delgada que una tarjeta de crédito“. Dicho en otras palabras, una lámina delgadísima de grafeno, colocada en la mano derecha o en la frente, podría ser utilizado como un chip invisible con el que pudiésemos, o tuviésemos que, efectuar todas las transacciones comerciales. De todos modos esto es solo una especulación. Pero tal vez tenga sentido.
Hoy en día prácticamente no se puede interactuar socialmente sin tener un teléfono celular. Los implantes de microchips en los seres humanos siguen la misma línea. No tener implantado un microchip será tan restrictivo que seguramente no tendremos alternativa. Pero, ¿por qué alguien aceptaría tal implante? Durante décadas, los estadounidenses han rechazado la idea de poder ser rastreados. Sin embargo, hoy en día, casi todos los estadounidenses tienen un teléfono celular. En cada uno de estos teléfonos hay un chip RFID que hace un seguimiento, a través de GPS o triangulando la señal, de todos nuestros movimientos. Como si eso no fuera suficiente, el micrófono y la cámara, prácticamente estándar en casi todos los teléfonos, pueden activarse de forma remota por los servicios de seguridad de un país o por hackers. Pero a pesar de la intrusión de estos dispositivos, en general son aceptados por millones de personas en todo el mundo. Además de manera voluntaria, ya que nadie tuvo que obligarnos a tenerlos. !Entienden a donde voy! Michael Snyder, genomicista, biólogo de sistemas y empresario estadounidense, en Las Victorias de la verdad se pregunta “¿Qué se puede hacer cuando ya no se puede comprar ni vender sin la presentación de la identificación biométrica?“. Y aquí volvemos a pensar en el misterioso párrafo del Apocalipsis. Esta tecnología de microchips va a seguir extendiéndose, y será cada vez más difícil de evitar. Y es fácil imaginar lo que un gobierno dictatorial puede hacer con este tipo de tecnología. Si quisieran, podrían utilizarlo para realizar un seguimiento de todo el mundo. Un día, esta tecnología es probable que sea tan generalizada, que no se pueda abrir una cuenta bancaria, obtener una tarjeta de crédito, o incluso comprar algo sin su utilización. En primer lugar esta tecnología deberá ser aceptado por la sociedad. Comenzará a extenderse como productos de consumo en tiempo real. Las generaciones mayores tal vez inicialmente podrán rechazarlas, pero rápidamente millones de personas las utilizaran para navegar y actuar por Internet. Los microchips RFID se implantaran para posibilitarlo todo, desde el acceso a los edificios para una seguridad máxima, pasando por prevención médica, hasta para comprar en la tienda de la esquina. Si u implante no se podrá tener acceso a los servicios oficiales, e incluso será incapaz de comprar una cerveza, y mucho menos recibir ayuda médica o tener licencia de conducir. Nos guste o no, este es el futuro que nos espera a la vuelta de la esquina. Para cada cosa que compremos y cada paso que demos, se realizará un seguimiento mediante un microchip. Y la única manera de “apagarlo” será eliminándolo físicamente del cuerpo.
La computación cuántica es un paradigma de computación distinto a la computación clásica. Se basa en el uso de qubits, o bits cuánticos, en lugar de bits, y da lugar a nuevas puertas lógicas que hacen posibles trabajar con nuevos algoritmos. Una misma tarea puede tener diferente complejidad en computación clásica y en computación cuántica, lo que ha dado lugar a una gran expectación, ya que algunos problemas irresolubles pasan a ser manejables. Mientras que un computador clásico equivale a una máquina de Turing, un computador cuántico equivale a una máquina de Turing cuántica. A medida que evoluciona la tecnología y se reduce el tamaño de los transistores para producir microchips cada vez más pequeños, esto se traduce en mayor velocidad de proceso. Sin embargo, no se pueden hacer los chips infinitamente pequeños, ya que hay un límite tras el cual dejan de funcionar correctamente. Cuando se llega a la escala de nanómetros, los electrones se escapan de los canales por donde deben circular. A esto se le llama efecto túnel. Una partícula clásica, si se encuentra con un obstáculo, no puede atravesarlo y rebota. Pero con los electrones, que son partículas cuánticas y se comportan como ondas, existe la posibilidad de que una parte de ellos pueda atravesar las paredes si son los suficientemente delgadas; de esta manera la señal puede pasar por canales donde no debería circular. Por ello, el chip deja de funcionar correctamente. En consecuencia, la computación digital tradicional no tardaría en llegar a su límite, puesto que ya se ha llegado a escalas de sólo algunas decenas de nanómetros. Surge entonces la necesidad de descubrir nuevas tecnologías y es entonces cuando la computación cuántica entra en escena.
La idea de computación cuántica surge en 1981, cuando el físico estadounidense Paul Benioff expuso su teoría para aprovechar las leyes cuánticas en el entorno de la computación. En la computación digital, un bit sólo puede tomar dos valores: 0 o 1. En cambio, en la computación cuántica, intervienen las leyes de la mecánica cuántica, y la partícula puede estar en superposición coherente: puede ser 0, 1 y puede ser 0 y 1 a la vez. Eso permite que se puedan realizar varias operaciones a la vez, según el número de qubits, que indica la cantidad de bits que pueden estar en superposición. Como cabe esperar, el número de operaciones es exponencial con respecto al número de qubits. Para hacerse una idea del gran avance, un computador cuántico de 30 qubits equivaldría a un procesador convencional de 10 teraflops (10 millones de millones de operaciones en coma flotante por segundo). Pero aún no se ha resuelto el problema de qué hardware sería el ideal para la computación cuántica. Se ha definido una serie de condiciones que debe cumplir, conocida como la lista de Di Vincenzo, y hay varios candidatos actualmente. Ingenieros de Google trabajan desde 2018 en un procesador cuántico llamado “Bristlecone“. En 2004, científicos del Instituto de Física aplicada de la Universidad de Bonn publicaron resultados sobre un registro cuántico experimental. Para ello utilizaron átomos neutros que almacenan información cuántica, por lo que son llamados qubits por analogía con los bits. Su objetivo actual es construir una puerta cuántica, con lo cual se tendrían los elementos básicos que constituyen los procesadores, que son el corazón de los computadores actuales. Cabe destacar que un chip de tecnología VLSI contiene actualmente más de 100.000 puertas, de manera que su uso práctico todavía se presenta en un horizonte lejano. Científicos de los laboratorios Max Planck y Niels Bohr publicaron en la revista Nature en noviembre de 2004, resultados sobre la transmisión de información cuántica a distancias de 100 km usando la luz como vehículo. obteniendo niveles de éxito del 70 %, lo que representa un nivel de calidad que permite utilizar protocolos de transmisión con autocorrección. Actualmente se trabaja en el diseño de repetidores, que permitirían transmitir información a distancias mayores a las ya alcanzadas. En el CES de 2019, IBM presentó el IBM Q System One, el primer ordenador cuántico para uso comercial. En el mismo se combina tanto la computación cuántica como tradicional para ofrecer un sistema de 20 qubits para su utilización en investigaciones y grandes cálculos
No todo es como parece. En el mundo de lo muy pequeño, cuando algunos materiales son menores que 10 millonésimas de metro (100 nanómetros), entramos en otro mundo y sus propiedades pueden cambiar sustancialmente. Materiales magnéticos dejan de serlo, algunos materiales opacos se convierten en transparentes, aisladores eléctricos empiezan a conducir electricidad, etc… Existe un fenómeno espectacular llamado “efecto túnel“, que nos dice que un electrón puede pasar a través de una muralla “impenetrable” si ésta mide menos que un nanómetro. No es que el electrón pase por encima o por entre medio de los átomos de la muralla. Lo sorprendente es que desaparece en un lado y aparece en el otro. A esta escala, las leyes de la Mecánica Cuántica rigen el comportamiento de la materia y no dejan de sorprendernos continuamente. La nanociencia es algo parecido a la magia, aunque es físicamente real. Sus aplicaciones ya están presentes en diversas áreas, como en el almacenamiento de información o en la farmacología de última generación. Y como todo gran avance tecnológico, la pregunta es: ¿será para beneficiar o destruir a la Humanidad? A principios de los ochenta fue inventado en Suiza (IBM-Zurich) uno de los microscopios capaces de “ver” átomos. Unos pocos años más tarde el Atomic Force Microscope fue inventado, incrementando las capacidades y tipos de materiales que podían ser investigados. Trabajar a nano escala significa investigar con partículas del tamaño de una millonésima parte de un milímetro; es decir, en una escala similar a la que resultaría de la comparación del planeta Tierra con una pelota de tenis. Por eso, hablar de nanotecnología es un cambio en la manera de pensar y en la forma científica de ver el mundo. Richard Feynman ya vislumbró en 1959 las enormes posibilidades que la investigación a pequeña escala podría ofrecer a la humanidad. Ahora físicos, biólogos, químicos y científicos procedentes de numerosas disciplinas se han puesto manos a la obra para investigar sobre lo pequeño y dotar al mundo de grandes hallazgos. Muchas son las parcelas sobre las que lo nano tiene y tendrá mucho que decir. Y es que la investigación a esta escala repercute directamente sobre nuestra cotidianidad, con avances que se harán cada día más visibles a la hora de afrontar una enfermedad, elegir un coche, viajar en avión, reducir las emisiones de CO2 con alternativas energéticas más eficientes o contar con edificios de mayor resistencia y nuevas propiedades de materiales, como la reparación automática. Uno de los instrumentos que permite llegar a la esencia de la nanotecnología es el sincrotrón. En el mundo existen unos 40 y uno de los últimos en inaugurarse fue el de la ciudad de Barcelona, bautizado con el nombre de ALBA. Este sofisticado laboratorio de luz sirve para experimentar con la materia más ínfima y buscar nuevos recursos donde emplearla.
Cuando los materiales tienen dimensiones más pequeñas que 100 nanometros, sus propiedades cambian sustancialmente. Todo esto se debe al hecho de que la física que rige el comportamiento a esta escala es la mecánica cuántica, que no es precisamente intuitiva. La nanotecnología estudia la materia desde un nivel de resolución nanométrico, entre aproximadamente 1 y 100 nanómetros. Hay que resaltar que un átomo mide menos de 1 nanómetro, pero una molécula puede ser mayor. Tal como hemos dicho, a esta escala se observan propiedades y fenómenos totalmente nuevos, que se rigen bajo las leyes de la mecánica cuántica. Estas nuevas propiedades son las que los científicos aprovechan para crear nuevos materiales, llamados nanomateriales, o dispositivos nanotecnológicos. De esta manera la nanotecnología ofrece soluciones a múltiples problemas a los que se enfrenta actualmente la humanidad, tales como problemas ambientales, energéticos, de salud, y muchos otros. Sin embargo estas nuevas tecnologías pueden conllevar riesgos y peligros si son mal utilizadas. La nanotecnología molecular es un avance tan importante que su impacto podría llegar a ser comparable con la Revolución Industrial. Pero en el caso de la nanotecnología el enorme impacto se notará en cuestión de unos pocos años, con el peligro de estar la humanidad desprevenida ante los riesgos que tal impacto conlleva. El término “Nanotecnología” fue aplicado por primera vez por el ingeniero estadounidense Eric Drexler en el año 1986, en su libro Motores de la creación: la próxima era de la Nanotecnología, en el que describe una máquina nanotecnológica con capacidad de autoreplicarse. En este contexto propuso el término de “plaga gris” para referirse a lo que sucedería si fuera liberado un nanorobot autoreplicante. Se prevé que la nanotecnología causará importantes cambios en la estructura de la sociedad y el sistema político. Por otro lado, la potencia de la nanotecnología podría ser la causa de una nueva carrera de armamentos. La producción de armas y aparatos de espionaje podría tener un coste mucho más bajo que el actual, siendo además los productos más pequeños, potentes y numerosos. Ello los podría hacer accesibles a organizaciones terroristas y mafiosas. Asimismo, la producción poco costosa podría llevar a grandes cambios en la economía.
Para poder disfrutar de los enormes beneficios de la nanotecnología molecular, es imprescindible afrontar y resolver los riesgos. Pero primero debemos comprenderlos, y luego desarrollar planes de acción para prevenirlos. La nanotecnología molecular permitirá realizar la fabricación y prototipos de una gran variedad de productos de gran potencia. La llegada repentina de la fabricación molecular no nos debe coger desprevenidos, sin el tiempo adecuado para ajustarnos a sus implicaciones. El Center for Responsible Nanotechnology ha identificado algunos de los riesgos más preocupantes de la nanotecnología. Algunos podrían amenazar la continuidad de la humanidad. Otros podrían producir grandes cambios, aunque sin causar la extinción de nuestro especie. Y todas las soluciones que se plantean para estos riesgos deben tener en cuenta el impacto que tendrían. Algunos de estos riesgos son producto de una falta de normativa jurídica. Hará falta distintos tipos de legislación según cada campo específica. Pero una respuesta demasiada rígida podría dar lugar a la aparición de otros riesgos. Un único enfoque no podrá impedir todos estos riesgos de la nanotecnología. Y el propio alcance de algunos de los posibles peligros de la nanotecnología es tal que la sociedad no podrá asumir el riesgo con la aplicación de distintos métodos para impedirlo. No podremos tolerar un escape de plaga gris, o una carrera de armas fabricadas con la nanotecnología. Manejar todos estos riesgos requiere un proceso de planificación muy cuidadosa. Pero lo que es evidente es que la nanotecnología podría llegar a significar la revolución científico-tecnológica más importante que haya conocido la humanidad, más trascendente aún que el desarrollo de Internet. Gracias a ella será posible aumentar la velocidad de los procesadores de computadoras hasta límites inimaginable; podremos eliminar contaminantes del agua, la tierra o el aire; también podremos detectar y destruir más rápidamente y selectivamente las células cancerosas; asimismo podremos crear materiales inteligentes, sólo por mencionar algunas de sus aplicaciones más significativas. Esto no es sólo ciencia ficción. De hecho, en la actualidad, ya existen en el mercado productos que aprovechan las propiedades especiales que poseen las nanopartículas. En unos pocos años se utilizarán nanosubmarinos tan pequeños que podrían “navegar” por el interior del cuerpo humano buscando anomalías o enfermedades en el torrente sanguíneo.
Sin embargo, para que verdaderamente la nanotecnología nos brinde un mejor nivel de vida es indispensable entender que no sólo tiene grandes beneficios, sino que también trae consigo una cantidad inmensa de problemas que deben ser atendidos, así como riesgos que deben ser prevenidos antes de que comience la explosión de la nanotecnología y sea muy tarde para aplicar soluciones. Básicamente los motivos de preocupación son dos: la peligrosidad de las nanopartículas por sí mismas y el riesgo de contaminación. El primero se refiere a los efectos biológicos y químicos de la gran exposición a las nanopartículas que tendrá el ser humano en un futuro muy cercano, mientras que el segundo tiene que ver con los escapes de éstas al medio ambiente, así como con su circulación y concentración, que pueden representar un peligro para los organismos o los ecosistemas. Algunas nanopartículas pueden atravesar fácilmente la membrana celular y unirse de manera muy selectiva a las mitocondrias. Si se esparcieran al ambiente en su forma activa podrían atacar indiscriminadamente a células de personas sanas. Eric Drexler ha hablado en ocasiones sobre la posibilidad de peligros del tipo plaga gris, que se refiere a un hipotético fin del mundo que involucraría la nanotecnología molecular. Según esta hipótesis, un conjunto de robots se autorreplicarían sin control consumiendo toda la materia viva en la Tierra, materia que emplearían para crear y mantener más robots, en un escenario que se conoce como ecofagia. El término usualmente se usa dentro del contexto de la ciencia ficción. En el peor de los casos, toda la materia en el universo podría convertirse en una masa inmensa de nanomáquinas en proceso de replicación y sin un orden concreto, matando a todos los habitantes del universo. El desastre es propuesto como resultado de una mutación accidental en una nanomáquina, usada con otros propósitos, que se autorreplica, o posiblemente de un arma de destrucción hecha deliberadamente.
Un analista de Intergalactic Reality, que se hace llamar Sky Coyote, aparece en Internet aportando nuevos elementos para la definición: “la nanotecnología se trata de la fabricación de pequeñas máquinas capaces de replicarse a sí mismas, de replicar otros materiales, y de realizar todo tipo de funciones. El dilema no es si la nanotecnología va a ser una realidad, sino cuándo“. Pero cuando nos introducimos en el mundo del átomo, entramos de lleno en la física cuántica, lo cual introduce nuevas dificultades. La física cuántica confirma que creamos nuestra realidad. ¿Hasta dónde puede llegar este nanomundo? Las visiones pueden ser perturbadoras. Primero una apocalíptica: armas letales, como microscópicos robots construidos por nanoensambladores, que recorren las ciudades arrasando a sus habitantes mientras se replican a sí mismos. Otra visión es más positiva: edificios que se erigen solos, como por arte de magia, bajo las ordenes de nanorobots equipados con nanocomputadoras que aparte de autoreplicarse inducen la creación y ensamblaje de estructuras a nivel molecular. Ciudades enteras podrían crearse, o recrearse. Podrían fabricarse así autopistas o televisores. También sería posible eliminar la contaminación ambiental con nanomáquinas diseñadas para “comérsela“, y crear alimentos, automóviles que pueden cambiar de forma, muebles, procesos automáticos de limpieza corporal, drogas artificiales, libros… los nanorobots podrían reparar tuberías y, por supuesto, generar una nueva frontera de aplicaciones médicas, incluyendo la regeneración de tejidos. Tal como ya hemos indicado, la nanotecnología es la manipulación de la materia a escala del nanómetro, es decir, a escala de átomos y moléculas. A esa escala, la materia puede cambiar sus propiedades físicas y químicas, por ejemplo el color, la conductividad eléctrica, la resistencia. En esta perspectiva se borra el límite entre lo vivo y lo no vivo: todo tiene átomos. La nanotecnología es una ciencia que promete grandes avances. Sin embargo, también debemos considerar que demandara muchas décadas de investigación previa para reunir una serie de técnicas y herramientas que permitan iniciar el gran cambio. Pero, ¿en qué sectores se aplicara la nanotecnología? El campo de aplicación de la nanotecnología es realmente muy variado. En este sentido, es bueno saber que será de utilidad en áreas tan diversas como la industria automotriz, química, cosmética, electrónica, medicina, energía, entre otras tantas aplicaciones.
Sabemos que los progresos en biomedicina salvan miles de vidas y, por lo tanto, contribuyen al bienestar general, mientras que los descubrimientos en física cuántica y en computación determinan los canales de comunicación que estamos utilizando actualmente. Nada hace pensar que el futuro próximo tenga que ser muy diferente. Pero las nuevas técnicas de edición genética, que podrían permitir modificar el ADN de embriones humanos, así como el desarrollo de la inteligencia artificial y la nanotecnología en máquinas, que cada vez llevan a cabo tareas más complejas, abren un abanico de posibilidades impensables hace pocos años. Estos y otros adelantos científicos continuarán modelando nuestro futuro con un impacto creciente, hecho que requiere una inteligente y cauta gestión de estas posibilidades. Creo que la combinación de la biotecnología, la nano tecnología y la Inteligencia Artificial, entre otras tecnologías, es el gran reto tecnológico del siglo XXI. Para decidir cómo se utiliza la edición genética o si se ponen límites a la inteligencia artificial y a la nanotecnología, hace falta una sociedad muy informada y con una ética científica sólida. La biotecnología se refiere a toda aplicación tecnológica que utilice sistemas biológicos y organismos vivos, o sus derivados, para la creación o modificación de productos o procesos en usos específicos. La biotecnología, comprende investigación de base y aplicada que integra distintos enfoques derivados de la tecnología y aplicación de las ciencias biológicas. La ingeniería genética puede definirse como “La manipulación deliberada de la información genética, con miras al análisis genético, o al mejoramiento de una especie”. La generación del ADN recombinante puede tener diferentes fines, siendo el más común determinar la función que tendría un gen en un organismo. Por ejemplo, si asumimos que tenemos un fragmento de ADN y creemos que es responsable de la producción del color rojo en flores, podemos insertar ese fragmento en una planta que produce flores blancas. Si al dejarla crecer, esta planta genera flores rojas, entonces sabremos que ese gen es el responsable de conferir el color rojo.
Hay algunos investigadores que creen que la humanidad fue creada por algún tipo de manipulación genética extraterrestre. Hoy en día, con los avances en genética y los conocimientos sobre el código ADN, hemos visto que ello es posible. Esta sería la esencia de las historias sobre la creación, tal como se relatan en las antiguas tablillas sumerias y en los posteriores escritos hebreos. Según la reinterpretación que hizo Sitchin de tales antiguos escritos, habría que hablar de una nueva versión de la creación humana, según la cual seres extraterrestres serían los responsables de la evolución de la especie humana con la manipulación del ADN mediante la ingeniería genética. Aaron Traywick (1989 – 2018) fue un activista estadounidense de lo que podríamos llamar extensión de la vida, que se generó en las comunidades de transhumanismo y biohacking. Buscó desarrollar terapias génicas para hacer tratamientos baratos y disponibles para enfermedades incurables como el SIDA y el virus del herpes simple. Su falta de formación médica y sus métodos poco convencionales, como la de transmitir en directo mientras estaba inyectándose una “terapia genética experimental no probada“, generó una crítica generalizada. Aaron Traywick saltó a las portadas del mundo de la ciencia por una atrevida jugada. El biohacker y CEO de la compañía de biotecnología Ascendance Biomedical se inyectó una terapia genética experimental y nunca probada en humanos. Al cabo de cierto tiempo Traywick apareció muerto. Aaron Traywick logró llamar la atención de medio mundo sobre el movimiento de biohacking. Durante una conferencia, el emprendedor se bajó los pantalones y se inyectó en la pierna una terapia génica desarrollada por su compañía, cuyo objetivo era curar para siempre el herpes. El tratamiento no había pasado por el circuito habitual de ensayos clínicos a que obliga la ley. Al elegir voluntariamente convertirse en conejillo de indias de su nueva terapia, Traywick no solo lograba dar un golpe de efecto sino que también evitaba enfrentarse a una posible sanción.
El transhumanismo es un movimiento cultural e intelectual internacional que tiene como objetivo final transformar la condición humana mediante el desarrollo de tecnología que ayude a mejorar las capacidades humanas, tanto a nivel físico como psicológico. Los pensadores transhumanistas estudian los posibles beneficios y perjuicios de las nuevas tecnologías tendentes a superar las limitaciones humanas, así como también la tecno ética adecuada a la hora de desarrollar y utilizar esas tecnologías. Estos pensadores sostienen que los seres humanos pueden llegar a ser capaces de transformarse en seres con extensas capacidades, merecedores de la etiqueta de post humanos. Influenciada por la ciencia ficción, la visión transhumanista de una futura y diferente humanidad ha atraído a muchos partidarios y detractores. El transhumanismo ha sido descrito por Francis Fukuyama, un influyente politólogo estadounidense de origen japonés, como «la idea más peligrosa del mundo», mientras que Ronald Bailey, editor de ciencias de la revista Reason, considera que es un «movimiento que personifica las más audaces, valientes, imaginativas e idealistas aspiraciones de la humanidad». Algunos autores consideran que la humanidad ya es transhumana, porque los progresos médicos en los últimos tiempos habría alterado de manera significativa, en su opinión, nuestra especie. Según Nick Bostrom, filósofo sueco de la Universidad de Oxford, los impulsos transcendentales del transhumanismo se han expresado desde la misma búsqueda de la inmortalidad relatada en La Epopeya de Gilgamesh, así como también en la búsqueda legendaria de la fuente de la eterna juventud, el elixir de la vida, y otros esfuerzos para tratar de vencer al envejecimiento y la muerte. El biólogo Julian Huxley es generalmente considerado como el fundador del transhumanismo, término acuñando en un artículo escrito en 1957: ” Hasta ahora la vida humana ha sido, en general, como Hobbes la describió, ‘desagradable, brutal y corta’. La gran mayoría de los seres humanos (si no han muerto jóvenes) han sido afectados con la miseria. Podemos sostener justificadamente la creencia de que existen estas posibilidades y que las actuales limitaciones y frustraciones de nuestra existencia podrían ser en gran medida sobrellevadas. La especie humana puede, si lo desea, trascenderse a sí misma, y no sólo de forma esporádica e individual, sino en su totalidad, como Humanidad“.
Algunos teóricos, como el inventor estadounidense Raymond Kurzweil, piensan que el ritmo de la innovación tecnológica se está acelerando y que en los próximos 50 años se puede producir no solo radicales avances tecnológicos, sino posiblemente una singularidad tecnológica que puede cambiar la naturaleza de los seres humanos y, tal vez, la reaparición de animales mitológicos, como el legendario Minotauro. Los transhumanistas que prevén este cambio tecnológico masivo sostienen que ello es deseable. Pero otros analistas plantean los posibles peligros de un cambio tecnológico extremadamente rápido, por lo que proponen acciones para asegurar que la tecnología se utilice de manera responsable. Por ejemplo, Bostrom ha escrito mucho sobre los riesgos para el futuro bienestar de la humanidad, incluyendo los riesgos creados por las tecnologías emergentes. Los transhumanistas apoyan la utilización de nuevas tecnologías y la convergencia de tecnologías como la nanotecnología, la biotecnología, la tecnología de la información y la ciencia cognitiva, así como futuras tecnologías, incluyendo la realidad simulada, la inteligencia artificial, la superinteligencia, la transferencia mental, la preservación química cerebral y la criónica. Los transhumanistas creen que los seres humanos pueden y deben utilizar estas tecnologías para convertirse en superhumanos. Por lo tanto, defienden la protección de la libertad de conocimiento, a fin de garantizar a los particulares la posibilidad del uso de tecnologías de mejoría humana en sí mismos y en sus hijos. Algunos especulan que las técnicas de mejoría humana y otras nuevas tecnologías pueden facilitar la evolución humana más radical a mediados del siglo XXI, si no antes. El libro de Raymond Kurzweil, La singularidad está cerca, y también el libro del físico teórico estadounidense Michio Kaku, La física del futuro, promueven diversas tecnologías de mejora humana y especulan sobre como estas tecnologías pueden impactar en la raza humana. El ambientalista estadounidense Bill McKibben, por ejemplo, cree que las tecnologías de perfeccionamiento humano estarían desproporcionadamente a disposición de los que tuviesen más recursos financieros, ampliando, por tanto, la brecha entre ricos y pobres y creando además una brecha genética. Lee Silver, biólogo y divulgador científico, que acuñó el término reprogenética y que ha apoyado su utilización, ha mostrado, no obstante, su preocupación de que tales métodos pudiesen crear una sociedad profundamente dividida entre los que tienen acceso a tales tecnologías y los que no, a menos que las reformas sociales no avancen en paralelo al avance tecnológico.
El escritor y divulgador científico de origen ruso Isaac Asimov (1920 – 2002) acuñó la expresión “síndrome de Frankenstein” para describir el miedo de los hombres a que las máquinas se rebelen contra sus creadores, en clara alusión al legendario monstruo de la novela Frankenstein o el moderno Prometeo, de Mary W. Shelley. Actualmente podemos constatar un movimiento llamado DIY (“Do It Yourself”, “Hazlo tú mismo”), desconocido por la mayoría de la gente, pero que cada vez acumula más fuerza, además de estar rodeado de gran polémica. Se trata de la biología de garaje, en referencia a los comienzos de la revolución informática que se efectuaba en garajes. Es un movimiento internacional de ciencia ciudadana que trata de crear una versión accesible y distribuida de la biología a través de soluciones tecnológicas de bajo coste que, en cierto modo, es ajena a los entornos convencionales en los que podemos encontrar la investigación y desarrollo de la biología, tal como pueden ser las universidades y las empresas de biotecnología, que se supone funcionan en un entorno controlado. Como muestra de ello, a diferencia de la biología institucional, muchos de los desarrolladores de esta biología DIY no poseen una formación académica en esta ciencia, sino que adquieren sus conocimientos y práctica gracias a redes sociales, Internet y el apoyo de una comunidad internacional. Al democratizar la experimentación de las prácticas biológicas, ha surgido un fenómeno paralelo a este DIY, el biohacking. Tras este concepto encontramos todo un movimiento de acercamiento de la ciencia a la ciudadanía, que ha conseguido trasladar los laboratorios de investigación a todo aquel que quiere acercarse a esta ciencia y sumarse a la experimentación colectiva en un sistema abierto y público. Los participantes de esta biología casera se identifican por una estética biopunk, por su pertenencia al movimiento transhumanista y por su tecno-progresismo. El biohacking aspira a la gestión de la propia biología utilizando una serie de técnicas médicas, nutricionales y electrónicas, con el objetivo de ampliar las capacidades físicas y mentales del sujeto. Si a nivel casero se ha llegado a este punto, imaginemos lo que pueden hacer las grades corporaciones, los gobiernos totalitarios o los estamentos militares. Es como abrir la caja de Pandora.
El ADN es la sigla empleada para denominar el ácido desoxirribonucleico, que corresponde al material genético que está presente en cada célula de los organismos vivos. También está presente en algunos virus, aunque otros virus solo tienen ARN, algas, plantas, árboles, animales y el ser humano. El ADN se compone de cuatro nucleótidos, que son como letras en un texto, que son la Adenina (A), la Guanina (G), la Citosina (C) y la Timina (T). Esta información se encuentra en el núcleo de la célula y es lo que conocemos como genoma. Una característica de gran interés es que las bases del ADN son las mismas en todos los organismos vivos, pero varía el orden en que se disponen estas letras y la cantidad de ellas que están presentes en el núcleo. Es de esta manera que los virus tienen muy poco ADN comparado con el hombre. Dentro del ADN hay diferentes funciones, ya que algunas letras y sus secuencias son responsables que existan los genes. Por ejemplo la insulina es una proteína cuya información se encuentra en el núcleo. Del total del ADN de un organismo, se cree que sólo un 20% es funcional, es decir está involucrado en generar proteínas o cumplir una función en la célula. A medida que se vaya descifrando un mayor número de genomas será posible conocer la función de las diferentes partes del genoma. Asimismo, ¿qué es el ADNr o ADN recombinante? El año de 1970 marca una etapa importante en la historia de la biotecnología, ya que representa el comienzo de la manipulación enzimática del material genético y, por consiguiente, la aparición de la biotecnología moderna, que constituye la más reciente evolución de la manipulación genética. Los procedimientos que se utilizan reciben el nombre de métodos del ADN recombinante o clonación molecular del ADN. Con herramientas de la biología molecular, tales como las enzimas de restricción, es posible tomar un fragmento pequeño de ADN de un organismo, tal como una bacteria, e insertarlo en el ADN (genoma) de una planta. Eso se conoce con el nombre de tecnología del ADNr.
Pero, ¿qué es la ingeniería genética? La ingeniería genética es la tecnología que permite obtener ADNr. La ingeniería genética puede definirse como “la manipulación deliberada de la información genética, con miras al análisis genético, o al mejoramiento de una especie”. La generación del ADNr puede tener diferentes fines, siendo el más común determinar la función que tendría un gen en un organismo. Por ejemplo, si asumimos que tenemos un fragmento de ADN y creemos que es responsable de la producción del color rojo en flores, podemos insertar ese fragmento en una planta que produce flores blancas. Si al dejarla crecer esta planta genera flores rojas, por lo que entonces sabremos que ese gen es el responsable de conferir el color rojo. Las aplicaciones más comunes de esta tecnología las encontramos en el área de la farmacología. Muchas proteínas, que son necesarias para el funcionamiento del ser humano, tales como la insulina en el caso de diabéticos, se pueden producir en microorganismos a gran escala y bajo costo. Una gran ventaja es que mediante esta metodología obtendremos una insulina humana de una gran pureza. Hoy en día se sintetizan más de 200 fármacos por medio del ADNr. La ingeniería genética tiene un gran potencial en las diferentes áreas de la biotecnología. Un área importante y que representa el 10% de la tecnología del ADNr, es en el sector agrícola. Es posible obtener plantas que posean una característica de interés, por ejemplo plantas que producen una toxina contra insectos (maíz Bt), arroz enriquecido con vitamina (arroz dorado), cultivos que en el futuro sean capaces de actuar como biorreactores y producir fármacos, entre otras aplicaciones. Desde 1996, se están comercializando plantas genéticamente modificadas en el mundo, especialmente en Estados Unidos, Argentina, Brasil y Canadá. No así en Chile, donde no está permitido el uso de plantas transgénicas para alimentación humana o animal.
Ya estamos inmersos en la revolución del biohacking. La ciencia casera cambiará nuestra forma de vivir y de relacionarnos. En un mundo en el que la tecnología ha pasado a formar parte crucial de nuestras vidas, se está abriendo camino una tendencia científica que puede revolucionar la ciencia tal y como la conocemos, pues exige de una estrecha comunión entre el practicante y la instrumentación tecnológica. Hablamos del biohacking, que corresponde a biología + hacking. Son dos palabras que resumen una nueva práctica científica en la que los que forman parte de ella convierten sus propios organismos, o el de otros seres vivos, en auténticos laboratorios de andar por casa. El supuesto objetivo sería el de ampliar las capacidades del ser humano, tanto físicas como mentales. Partiendo de la base de que el organismo es una máquina simple que, por supuesto, puede mejorarse, los biohackers experimentan de diversas maneras. Tenemos desde la secuenciación de genomas a la implantación de dispositivos electrónicos subcutáneos, o incluso poniendo a prueba el organismo con ensayos directos, como la exposición a elementos químicos. En este último caso, sin ir más lejos, un equipo de investigadores del grupo Science for the Masses (SfM) de California, utilizó el cloro e6 (Ce6) para adquirir temporalmente visión nocturna sin necesidad de llevar ningún dispositivo de visión nocturna. El ratón de laboratorio fue un tal Gabriel Licina, quien, tras los previos experimentos con animales, aceptó el riesgo de ser el primer humano en probar el compuesto en sus propios ojos. El resultado fue la obtención de visión nocturna sin gafas con un alcance de hasta un máximo de 50 metros. Y es que la filosofía del biohacking parte del principio del DIY (“do it yourself”) donde el protagonista es el propio ser humano. Algo que parece sacado de la ciencia ficción se está haciendo realidad.
Pero, en realidad, ¿se trata de crear súper humanos o robots? Muchos es probable que se sientan asustados o incluso se muestren contrarios a esta arriesgada práctica que nace de la curiosidad científica. Pero, si miramos hacia el futuro, lo cierto es que las posibilidades son también muy atractivas, si se utilizan de una manera positiva. Imaginemos un paciente que tenga algún tipo de riesgo cardiovascular. Algo tan sencillo como un implante subcutáneo podría avisar tanto al portador como al servicio de emergencias de que está a punto de sufrir un ataque al corazón. El implante lanzaría un aviso de alerta y podríamos hacer frente a este evento con mucha mayor rapidez y eficacia. Ésta y otras aplicaciones similares podrían ayudar a salvar vidas. Vemos que ya no es tan pintoresco lo de la ciencia de andar por casa. En vez de un dispositivo más que llevar encima, lo llevaríamos implantado en nuestro organismo para ayudarnos en nuestro día a día, en las actividades más ordinarias, como a la hora de practicar nuestro deporte favorito o realizar nuestro entrenamiento diario. Los tatuajes tecnológicos, de la empresa Chaotic Moon, son un buen ejemplo de ello. Los Tech Tats se centran en el campo de la medicina, facilitando las revisiones médicas de manera automática debido a que nuestro tatuaje estará conectado con nuestro médico y si existe algún problema físico él se pondrá en contacto con nosotros. Analizará fiebre, pulso y todo lo que sea necesario con la finalidad de que, si tenemos alguna enfermedad, sea vista con anticipación. Además, podremos dejar a un lado los monederos y carteras debido a que tendremos todos nuestros datos necesarios para el día a día, como el DNI o tarjeta de crédito, en nuestra piel. También podrían utilizarse para abrir la puerta del coche, de la casa o el garaje o incluso geolocalizar a personas extraviadas, como ancianos con Alzheimer. Todo esto se puede llevar a cabo mediante una pintura conductora o pintura eléctrica que va conectada a un microchip y unas luces led personalizables. Estos tatuajes llevarán una tecnología usable, como los relojes, más allá de lo que hoy podemos imaginar. Se trata del uso de una plataforma ecológica y no invasiva que convierte a la persona en una placa de circuitos humana. Las posibilidades en nuestro día a día son muchas.
Los orígenes del biohacking no son nuevos, ya que esta tecnología nació hace más de una década en Estados Unidos. La investigadora y escritora de ciencia ficción norteamericana Meredith L. Patterson es la autora del Manifiesto del Biohacking. Patterson desarrolló bacterias modificadas genéticamente que se iluminaban al contacto con melamina, una sustancia química letal para los humanos y que en el pasado se utilizaba para adulterar alimentos para mascotas y para humanos, como en el caso de algunos productos lácteos de países asiáticos. Estas bacterias fueron modificadas a través del ADN de las medusas para teñirse de color verde ante la presencia de la melamina, lo que ayudó a salvar muchas vidas. Desde entonces no han parado de surgir grupos afines por todo el mundo. En Estados Unidos, el campo del biohacking ha dado saltos de gigante. Llevando la creatividad a la vida y fundiendo el cuerpo humano con la tecnología, el sueño de la biología sintética nos acerca la visión más personal del internet de las cosas. Probablemente dejaremos de depender de todo un amplio abanico de dispositivos y pasaremos a llevarlos insertados en nuestro cuerpo. Con el tiempo lo averiguaremos. Pero está claro que hay que conseguir un aumento en el nivel de tolerancia hacia la biotecnología entre la población. Josiah Zayner, de 36 años, doctor en biofísica y ex trabajador de la NASA, saltó a la fama en 2016 después de lanzar una campaña de crowdfunding para que cualquiera pudiese experimentar con el CRISPR, una novedosa herramienta molecular utilizada para editar y corregir el genoma de cualquier célula, desde sus propias casas. La novedosa tecnología CRISPR es una herramienta de edición del genoma que actúa como unas tijeras moleculares capaces de cortar cualquier secuencia de ADN del genoma de forma específica y permitir la inserción de cambios en la misma. CRISPR-Cas ofrece a los científicos la posibilidad de cambiar una secuencia de ADN de una forma más fácil, rápida y precisa en diferentes puntos concretos del genoma dentro de un organismo vivo. El sistema CRISPR-Cas es un mecanismo de defensa empleado por algunas bacterias para eliminar virus o plásmidos invasivos.
Con la secuenciación del Genoma Humano conocemos el código con el que está programado nuestro cuerpo. Y ahora, gracias a CRISPR, contamos con las herramientas necesarias para editar ese código con sencillez y rapidez. De esta forma las ciencias de la salud y la biología han comenzado a funcionar bajo los mismos principios que las tecnologías de la información, por lo que, gracias a ello, están empezando a evolucionar exponencialmente. Aplicando las ideas de la programación de ordenadores a la bioquímica y a la genética, podemos programar la medicina de la misma forma que programamos los ordenadores y el software. Conocer la historia del descubrimiento de CRISPR nos ayuda a entender su utilidad para aplicarlo en ámbitos como la medicina, la alimentación y la agricultura. Si no tenemos conocimientos sobre bioquímica y genética puede ser difícil comprender parte de la terminología en relación con los descubrimientos realizados. Pero ello no es un problema, porque lo más importante es la aplicación que se pueda dar a esta tecnología. Jennifer Anne Doudna es una bioquímica estadounidense, catedrática de Química y Biología celular y molecular en la Universidad de California, Berkeley. Asimismo ha sido investigadora en el Instituto Médico Howard Hughes desde 1997. Sin duda Jennifer Doudna se ha convertido en la cara visible de esta gran revolución en el ámbito de la genética, representada por CRISPR. Hay que destacar su papel a la hora de promover un proceso de reflexión sobre cómo se va a utilizar esta tecnología en lo que se refiere a la modificación genética de los seres humanos. Sobre todo en lo que respecta al diseño de embriones con características genéticas que les podrían hacer superiores al resto de los seres humanos. El comité de bioética de la Unesco solicitó en 2015 una moratoria para no aplicar todavía la edición genética a óvulos, espermatozoides y embriones humanos, dado que las alteraciones efectuadas se transmitirían a las generaciones siguientes, con posibles consecuencias indeseadas. Las grandes empresas de la industria farmacéutica han visto en CRISPR una gran oportunidad para mejorar sus productos, por lo que se han lanzado a investigar en este ámbito y sobre todo a colaborar con las empresas que cuentan con las patentes de dicha tecnología. De todos modos, habrá que reflexionar sobre cómo la tecnología CRISPR puede llegar a configurar cómo será el futuro de la humanidad. Y según la dirección que se siga podrá ser beneficiosa o perjudicial para la humanidad.
El ser humano biónico está más cerca, desde que se dio a conocer un avance revolucionario en este campo. Un hombre era capaz de mover un brazo implantado de manera natural y había vuelto a realizar sus tareas cotidianas diez años después de sufrir la amputación de su brazo. En este logro, fruto de un proyecto de investigación de dos universidades suecas, confluyen dos disciplinas. Por un lado, el desarrollo de la mecanotrónica, disciplina que sirve para diseñar robots y a los productos que involucren a sistema de control para el diseño de productos o procesos inteligentes, ha permitido implantar prótesis cada vez más sofisticadas. Por otro lado los neurocientíficos, en un campo de la ciencia que estudia el sistema nervioso y todos sus aspectos, han conseguido reproducir todos los pasos del proceso que lleva desde pensar en mover un brazo hasta que este se mueve y manda sus señales de vuelta al cerebro. La tecnología de los miembros artificiales ha estado muy vinculada a las guerras, con importantes avances tras cada uno de los grandes conflictos bélicos. Así, la Segunda Guerra Mundial impulsó el desarrollo de las prótesis modernas, hechas de nuevos materiales, como plásticos y titanio. En 1976 se produjo un Implante coclear, producto sanitario implantable activo de alta tecnología que consiste en un transductor que transforma las señales acústicas en señales eléctricas que estimulan el nervio auditivo. que fue uno de los grandes logros de la biónica, pues permitió por primera vez a una persona recuperar el sentido del oído, que había perdido. Más allá de los audífonos, que amplifican el sonido, el implante coclear permite captar el sonido a pacientes que tienen sordera profunda debido a daños en la cóclea, situada en su oído interno, pero cuyo nervio auditivo funciona perfectamente. Esta técnica requiere una operación quirúrgica, realizada por primera vez en un hospital de París en septiembre de 1976. Además de colocar un micrófono externo que recoge y procesa el sonido, hay que implantar dentro del cráneo un dispositivo que transmite las señales eléctricas al nervio, mediante unos electrodos.
En 1982 se implantó un corazón artificial. En efecto, otro de los grandes objetivos de la biónica es remplazar el corazón humano con un dispositivo artificial. La mecánica básica del corazón es la de un sistema de bombeo, pero las sutilezas del nuestro vital músculo hacen que imitarlo de manera permanente sea un importante reto. Los corazones artificiales se utilizan principalmente para mantener con vida a los pacientes que esperan un trasplante. Pero en diciembre de 1982 un equipo de investigadores de la Universidad de Utah, Estados Unidos, se atrevió a implantar un dispositivo para sustituir definitivamente al corazón. El receptor sobrevivió 112 días con su corazón artificial. Desde entonces la mejora en el mecanismo, el control del rechazo, igual que en los trasplantes, así como las baterías, han permitido alargar la supervivencia hasta más de 7 años seguidos con un mismo corazón artificial. Los años sesenta del siglo XX supusieron el despegue de la robótica moderna, gracias al trabajo de instituciones como el MIT y su laboratorio de Inteligencia Artificial. Allí, Heinrich Ernst diseñó la primera mano mecánica operada por ordenador en 1961. Siguiendo su estela, en 1963 los investigadores de un hospital de Downey, California, crearon el primer brazo robótico destinado a asistir a pacientes con minusvalías. En los años siguientes los brazos robóticos tuvieron otras aplicaciones industriales. Las prótesis robóticas se utilizaban en la ciencia ficción, como la mano biónica que implantaban a Luke Skywalker en la película El imperio contraataca (1980). Ha sido ya en el siglo XXI cuando esa idea empezó a hacerse realidad, con la comercialización de manos robóticas cada vez más sofisticadas e inteligentes, que detectan la presión y saben cuándo hay que dejar de apretar un objeto antes de dañarlo.
Las guerras de Irak y Afganistán tuvieron el efecto colateral de impulsar el desarrollo de verdaderos miembros biónicos. La agencia de investigación militar estadounidense (DARPA) invirtió casi 50 millones de dólares en diferentes prototipos, implantados a veteranos de guerra que habían sufrido amputaciones. En 2007 Claudia Mitchell, ex-marine estadounidense, fue la primera mujer implantada con un brazo biónico. Podía abrir y cerrar su mano pensando en ello. Aunque ese control mental era indirecto. Los cirujanos redirigieron los nervios de su brazo amputado hacia músculos de su pecho, que al contraerse transmitían señales al miembro robótico. En los últimos años se han producido multitud de pequeños avances que permiten una comunicación más directa con el cerebro e incluso bidireccional: los pacientes ya reciben sensaciones a través de sus miembros biónicos. Asimismo en un futuro no muy lejano los humanos podrán alargar su vida y aumentar las habilidades con microchips, prótesis y dispositivos inteligentes que llevarán incorporados en el cuerpo. Todos esos elementos biónicos estarán conectados a la red y, por lo tanto, podrán sufrir ciberataques. “Debemos tomarnos esta amenaza de una manera muy seria, porque nuestra vida podría estar en peligro“, explicó Sergey Kravchenko, director de desarrollo de negocios de Kaspersky, durante una conferencia sobre seguridad biónica en el Mobile World Congress 2019 (MWC), en la ciudad de Barcelona. El futuro del sector es muy prometedor y se especula con la posibilidad de que se puedan implantar microchips para aumentar la capacidad de memoria o descargar recuerdos a fin de no perderlos. Según los expertos, ese mundo está por llegar, pero la verdad es que hoy ya hay personas que usan manos biónicas y otros elementos que, por ejemplo, les han permitido recuperar la capacidad de oír gracias a implantes sensoriales.
Por ahora el peligro de que alguno de estos dispositivos pueda sufrir un ciberataque es poco probable, según los expertos, pero en el futuro se requerirá incorporar elementos de seguridad. “En varias décadas podremos sustituir más de la mitad de las partes del cuerpo con este tipo de dispositivos“, aseguró Ilya Chekh, que dirige una empresa rusa que crea prótesis de manos para personas amputadas o algún tipo de discapacidad. Su empresa desarrolla manos artificiales que pueden comunicarse con su dueño, conectarse en línea y ejecutar comandos de voz. Si el presente del sector ya tiene numerosas aplicaciones, en el futuro su potencial aumentará con la llegada del 5G, que permitirá que todos estos dispositivos estén conectados a la red de manera prácticamente instantánea y funcionen con algoritmos de inteligencia artificial en la nube. Ese nuevo escenario, que centró el MWC 2019 bajo el lema “Conectividad Inteligente“, traerá un gran avance, pero también muchos “peligros“, según alertan expertos rusos en ciberseguridad. La larga cadena de conexiones implicadas, el gran número de dispositivos inteligentes que estarán conectados y la posibilidad de que sea una inteligencia artificial la que intervenga en los dispositivos remotos, multiplica los posibles peligros, tales como virus, equivocaciones humanas, sabotajes, vulnerabilidades informáticas y ciberataques dirigidos pueden afectar a una o varias partes de la cadena de flujo de datos y afectar a estos dispositivos. Los expertos creen que junto a las bondades que traerá la combinación de 5G, “internet de las cosas” y la inteligencia artificial, es necesario también alertar sobre los peligros que traerán: “Menos marketing y más investigación“, resumen. Cuando estos elementos formen parte del día a día será necesario proteger el código de los dispositivos, controlar su tráfico de datos, entrenar a las personas que intervengan en el proceso de su mantenimiento, ya que muchas veces los ciberataques aprovechan errores humanos, e investigar los incidentes para aprender de ellos, explicó el responsable de Kaspersky. “Es una realidad que las prótesis biónicos nos llevarán a otro nivel como humanos, pero debemos certificar su seguridad y asegurar sus peligros“, añadió el experto en seguridad. Ahora, la investigación en el sector de la biónica se centra en solventar problemas de discapacidad, pero en el futuro es posible que estos elementos sean capaces de dotarnos de habilidades extraordinarias y convertirnos en “superhombres“, lo cual aún puede incrementar más las diferencias entre ricos y el resto de los humanos.
Una impresora 3D es una máquina capaz de realizar réplicas de diseños en 3D, creando piezas o maquetas volumétricas a partir de un diseño hecho por ordenador, descargado de internet o recogido a partir de un escáner 3D. Surgen con la idea de convertir archivos de 2D en prototipos reales o 3D. Comúnmente se ha utilizado en la prefabricado de piezas o componentes, en sectores como la arquitectura y el diseño industrial. En la actualidad se está extendiendo su uso en la fabricación de todo tipo de objetos, modelos para vaciado, piezas complicadas, alimentos, prótesis médicas, ya que la impresión 3D permite adaptar cada pieza fabricada a las características exactas de cada paciente, etc. El campo de la medicina es uno de los más avanzados en cuanto al uso de las Impresoras 3D. En Estados Unidos, la FIDA aprobó en agosto de 2015 el primer medicamento que puede ser producido por impresión 3D. El medicamento se llama Levetiracetam y se utiliza para el tratamiento de la epilepsia. La impresión 3D de medicamentos puede permitir a los médicos recetar dosis más precisas, ajustadas a las necesidades de cada paciente. Existen impresoras que son capaces de crear guías quirúrgicas y modelos dentales. Las guías quirúrgicas se usan para que el dentista sepa exactamente dónde debe colocar un implante. Pero lo que es más sorprendente es que ya se han realizado implantes de prótesis más allá de la odontología. Es el caso de un estudiante de secundaria de Colorado, que ha creado una prótesis robótica con una impresión 3D. Este brazo robótico tiene un coste de 500 dólares, unas 160 veces inferior a los que se construyen por los métodos tradicionales, por lo que podría llegar a la mayoría de los hogares, independientemente de su poder de adquisición. El brazo es controlado por ondas cerebrales y tiene un diseño robusto y avanzado. En agosto del 2013, este estudiante estaba ya trabajando en la tercera generación de esta creación. Incluso actualmente se crea piel humana sin pelo con una impresora en 3D. Para su fabricación en 3D, se usan células del propio paciente, que se cultivan en laboratorio de manera artificial. Así no hay rechazos. En la impresora se meten células cultivadas y también nutrientes como proteínas, calcio, factores de crecimiento.
Con la llegada de los Big Data, término que describe el gran volumen de datos, tanto estructurados como no estructurados, se esperan cambios en numerosos campos, pero en el de la medicina, especialmente, se prevé una revolución completa con cambios profundos. Los avances informáticos no sólo han originado avances en la secuenciación genética, sino que también han dado lugar a máquinas que permiten modelar y probar miles de proteínas a la vez, reduciendo el tiempo de experimentación, de forma que ahora es posible completar en unas pocas horas miles de interacciones bioquímicas que anteriormente requerían años. “En los próximos 10 años, vamos a ver grandes cambios en la forma en la que miramos el tratamiento”, señala Joan Nichols, directora asociada de investigación de la UTMB (University of Texas Medical Branch), ”Esto nos da la oportunidad de crear mejores terapias, mejores vacunas y mejores formas de ayudar las personas a superar cualquier tipo de lesión”. Habrá un crecimiento de la medicina personalizada. Todos estos datos potencialmente ayudarán a averiguar por qué algunas personas responden al tratamiento y otras no. Por el momento, se cree que el motivo podría estar relacionado con las diferencias individuales en el ADN y con las distintas bacterias que han evolucionado con nosotros, conocidas como nuestro microbioma. Nuestros cuerpos contienen gran cantidad de células microbianas y las bacterias de nuestro cuerpo tienen partes de nuestro material genético. Tras la secuenciación del ADN, hemos comenzado a darnos cuenta de lo importante que son estas bacterias para la regulación de nuestra salud, más allá incluso de la digestión, incluyendo la regulación de la expresión de nuestros genes y la respuesta a la inflamación. El Dr. William Decker, un investigador del cáncer del Baylor College de Medicina en Texas, Estados Unidos, investiga cómo enseñar al sistema inmunológico a buscar y destruir las células cancerosas. Si lo consigue, esto podría reemplazar al actual método de la quimioterapia, que implica bombardear el cuerpo con productos químicos tóxicos con la esperanza de que el sistema inmunológico se recupere. La inmunología, en cambio, recurre a un enfoque más focalizado y se dirige a vías químicas concretas, de forma que resulte menos perjudicial para el cuerpo.“Estoy seguro de que en los próximos 15 a 25 años, la terapia inmunológica funcionará muy bien”, añadió. Algunos avances requieren también un cambio de mentalidad.
A veces hay avances que están a nuestro alcance pero, en cambio, nosotros los vemos muy lejos. Según Peter Stone, profesor de la Universidad de Texas, que ha trabajado principalmente en campos como la robótica y los sistemas de inteligencia artificial autónomos, a principios de la década de 1990 ya hubo demostraciones de coches que recorrían largas distancias de forma autónoma. Sin embargo, cuando publicó su primer artículo sobre los coches autónomos, hace unos años, incluso sus colegas de ciencias de la computación lo miraban como un bicho raro. En los últimos años, la mentalidad de la gente ha evolucionado y cada vez se sorprenden menos con los grandes cambios que se están produciendo. Ahora, la percepción pública de capacidad y posibilidad puede cambiar considerablemente en un corto período de tiempo. Sin embargo, la mayor parte de la gente ni se imagina lo que puede suponer el uso generalizado de los vehículos autónomos, como el coche autónomo de Google. Al hablar de un coche autónomo, la mayoría se imagina en un coche similar al que tienen ahora y haciendo los mismo recorridos que hacen hoy en día, con la única diferencia de que no tendrán que conducir. Sin embargo, según Peter Stone, la llegada de los coches autónomos lo cambiará todo: “Va a cambiar el valor de los bienes inmuebles, las zonas en las que tiende a vivir la gente, los tipos de viajes, las necesidades de aparcamiento en las zonas urbanas y el valor que se le da a viajar en coche propio o compartido”. Incluso podrían acabar por reemplazar a los humanos en numerosos puestos de trabajo, como taxistas, camioneros, conductores de autobús….
Otro campo en el que la innovación revolucionaria avanza paralelamente a un cambio importante de actitud es la energía renovable. Lo que parecía una quimera a largo plazo de los ecologistas es cada vez más competitiva con respecto a los combustibles fósiles, gracias a la aceleración de la innovación tecnológica. Se están realizando avances en generación básica de energía. Ha habido un cambio rápido y un aumento importante, tanto en la eficiencia de las células fotovoltaicas como en las diferentes formas de generación de energía solar. En muchos países, los avances en energía solar se han visto reforzados por una amplia intervención gubernamental que está empezando a dar resultados: En China, la fuerte inversión del gobierno en la industria de energía solar ayudó a lograr economías de escala que llevaron a una reducción de los precios. Francia obliga por ley desde hace poco a poner paneles solares o techos verdes en todos los tejados nuevos. En Estados Unidos, fueron las rebajas fiscales por el uso de energía solar a nivel residencial lo que inspiró a muchos consumidores a instalarla. Por otra parte, grandes empresas de tecnología como Microsoft, Google y Apple han invertido en energías renovables para abastecer a sus granjas de servidores. Y Google también se ha asociado con SolarCity para invertir unos 750 mil millones de dólares en una iniciativa de energía solar residencial. Las empresas están adoptando las energías renovables, no por directiva o imposición del gobierno, sino por razones de marketing.
Los investigadores también deben evolucionar. Antes, los investigadores tenían que pasar gran parte de su tiempo en busca de artículos académicos relacionados con sus investigaciones. Ahora, con potencias de cálculo cada vez mayores, los investigadores pueden adquirir esos conocimientos en cuestión de segundos. Sin embargo, no solo han evolucionado los sistemas de documentación, poniendo el conocimiento científico mundial al alcance de cualquier investigador, también Internet y los asombrosos avances en comunicaciones de los últimos años han dotado a los científicos de todo el mundo de unas herramientas de colaboración anteriormente inimaginables. La ciencia y la tecnología se han vuelto cada vez más complejas y las investigaciones requieren de equipos multidisciplinares, con especialistas de todos los campos implicados. Gracias a las nuevas comunicaciones pueden colaborar en un mismo proyecto especialistas de diferentes campos y distintos países. Esto facilita y acelera más aún la consecución de nuevos descubrimientos, pero también requiere nuevas habilidades adicionales en los investigadores, anteriormente innecesarias. Ya no vale sólo con hacer descubrimientos de vanguardia, sino que se puede tener un gran equipo, para lo que se necesitan habilidades sociales y comunicativas a fin de que se funcione adecuadamente, señala Joan Nichols. Pero este tipo de habilidades sociales de liderazgo y trabajo en equipo no suelen estar incluidas en la formación científica. Según John Vanston, conocido futurista y asesor científico desde finales de la década de 1970: “Estamos siendo testigos de un cambio en el paradigma científico”. A lo largo de los siglos, los investigadores han llegado a conclusiones científicas a través de la observación. La idea era hacer un experimento y ver cómo funcionaban las cosas, señala. Después, pasaron a la simulación por ordenador, y ahora estamos empezando un nuevo paradigma, que consiste en el descubrimiento intensivo de datos. Estamos abrumados por la enorme cantidad de información a nuestro alcance. La clave ahora está en averiguar cómo utilizar esa información de forma inteligente para aprovechar al máximo sus posibilidades.
Si alguna tecnología puede producir una aceleración aún mayor de la progresiva revolución tecnológica en que estamos inmersos desde hace aproximadamente un siglo, ésta es la Inteligencia Artificial. Y como toda tecnología, puede emplearse para el bien o para el mal. El gobierno chino ha anunciado que pretende hacer de su país el número uno en inteligencia artificial para 2030, con un mercado local de 150.000 millones de dólares, y que pretende exportar dicha tecnología al resto del mundo. China está a la vanguardia en el uso de la tecnología de reconocimiento facial, presente en cada vez más lugares públicos, mediante la instalación de miles de cámaras. Los que defienden la implantación de esta tecnología afirman que hace la vida más fácil y segura, pero sus detractores ven en ella una forma perfecta para que el gobierno chino pueda vigilar de cerca a los aproximadamente 1.400 millones de chinos. En Shanghái y en otras grandes ciudades el reconocimiento facial se ve incluso en las calles, con el pretendido objetivo de detectar a quienes infrinjan las normas de circulación o cometan otros tipos de delitos. Así, los peatones que cruzan la calle por lugares en que no esté permitido son sistemáticamente fotografiados y su foto aparece, inmediatamente, en una gran pantalla instalada en la intersección más cercana. La población china, gobernada por el Partido Comunista, es una de las más vigiladas del mundo, ya que en el país tienen instaladas alrededor de 176 millones de cámaras de seguridad operativas. Sin embargo, la gente preguntada al respecto en un cruce de Shanghái no parece especialmente molesta por esta novedad. La policía utiliza esta tecnología para encontrar a sospechosos que están en búsqueda. La inteligencia artificial (IA), también llamada inteligencia computacional, se considera que es un tipo de inteligencia exhibida por algún tipo de máquinas. En ciencias de la computación, una máquina «inteligente» ideal es un agente racional flexible que percibe su entorno y lleva a cabo acciones que maximicen sus posibilidades de éxito en algún tipo de objetivo o de tarea. Coloquialmente, el término inteligencia artificial se aplica cuando una máquina imita las funciones «cognitivas» que asociamos con la mente humana, como por ejemplo el aprendizaje y la resolución de problemas. A medida que las máquinas se vuelven cada vez más capaces de ejecutar determinadas tareas, aquella tecnología que alguna vez se pensó que requería de inteligencia para efectuar una determinada tarea, se elimina de la definición de Inteligencia Artificial. Por ejemplo, el reconocimiento óptico de caracteres ya no se percibe como un ejemplo de Inteligencia Artificial, habiéndose convertido en una tecnología común. Otros ejemplos de avances tecnológicos que todavía están clasificados como Inteligencia Artificial serían los sistemas capaces de jugar al ajedrez.
Hay algunas razones para temer a los robots y a la Inteligencia Artificial, que están estrechamente relacionados. ¿Podemos encontrarnos con una revuelta de robots que acabe esclavizando la raza humana? Con la Inteligencia Artificial pasa que no sabes muy bien cómo, pero prácticamente es capaz de todo, tal como tener creatividad, prevención de desastres naturales y efectuar investigación médica, pero también puede utilizarse para el control ciudadano, para usos militares, etc. La Inteligencia Artificial proporciona un gran poder y para gestionarlo se requiere una gran responsabilidad, ya que de lo contrario el futuro que presentaba George Orwell estaría más próximo que nunca. Cuantos más expertos den la voz de alarma sobre ello, antes se tomarán medidas. La Inteligencia Artificial hace la vida más fácil, pero tiene potencial para convertirla en un infierno, como en 1984. Así, un grupo de investigación denominado OpenAI e integrado por expertos de las universidades de Oxford, Cambridge y Stanford han llegado a la conclusión de que la ciencia ficción llevaba razón con sus profecías, pero no como lo imaginábamos. Es improbable que suceda algo como en la película Terminator, en que John Connor, líder de la resistencia humana, conduce la guerra contra las máquinas-robot. Pero los avances tecnológicos podrían acercarnos a este escenario. Seguro que alguna vez hemos entrado en nuestro correo electrónico y hemos encontrado un supuesto mensaje del Banco, o de alguna empresa conocida, que te instan a pulsar un enlace e introducir nuestros datos. Si lo hacemos, además de proporcionar nuestros datos personales, nuestra cuenta podrá ser fácilmente hackeada y, desde allí, acceder a todavía más información. Hace años era fácil darse cuenta del engaño, pero ahora cada vez son más realistas y no solo atacan a través del email, sino que también a través de redes sociales como Twitter o Facebook. Con la Inteligencia Artificial todo ello aún parece más realista, ya que la capacidad de persuasión del software se incrementa enormemente, ya que puede investigar al máximo detalle los mensajes que recibimos y luego es capaz de reproducirlos.
Como ejemplo de los problemas que puede presentar la implantación de la Inteligencia Artificial en nuestras interacciones, tenemos lo que dice Mayte Rius, redactora de La Vanguardia de Barcelona y galardonada con el premio Matemàtiques i Societat 2016, en su artículo “Los dilemas éticos de la inteligencia artificial“, publicado en La Vanguardia el pasado 19 de mayo de 2018: “La presentación de Google Duplex, un sistema de voz de inteligencia artificial, capaz de hacer reserves o fijar citas por teléfono con tanto realismo que parece una persona, ha desencadenado un acalorado debate sobre los límites de la sofisticación de la robótica y el riesgo de que su excesiva humanización se traduzca en engaño e indefensión para los humanos. En pocas horas los desarrolladores de Google pasaron de la satisfacción de mostrar una inteligencia artificial capaz de ponerse al teléfono, a recibir una avalancha de críticas por haber creado una tecnología ‘inquietante’, ‘horripilante’, ‘insensible’ y carente de ética, que traiciona la confianza de las personas colocando robots en conversaciones con humanos sin que estos últimos se den cuenta. A estos reproches se sumó el cuestionamiento legal, ya que los robots no tienen ‘oído’, y por ‘escuchar’ analizan el audio del interlocutor, lo que implica grabar la conversación sin haber pedido consentimiento“. La Inteligencia Artificial será adoptada por la mayoría de las industrias y el sector financiero no será una excepción. De este modo, los bancos y cajas de ahorro implantarán el aprendizaje de las máquinas para mejorar sus servicios y para personalizarlos. Sin embargo, los estafadores también podrían desarrollar mecanismos (chatbots) para comunicarse con los clientes del banco y engañarlos. Desde luego, con los chatbots ya no será necesario que haya comunicación directa entre las víctimas y los delincuentes, eliminando todo rastro. Ello también podrá emplearse para diseminar bulos, rumores y otras noticias falsas. Si creíamos que con internet ya no había secretos ni forma de lograr desaparecer, con la Inteligencia Artificial todo empeorará. La capacidad de estudio y simulación a partir del aprendizaje de las máquinas no está al alcance ni siquiera del mejor imitador que conozcamos. Es decir, que se pueden crear audios y vídeos de celebridades diciendo cualquier cosa y a simple vista pueden parecer auténticos.
Sin ir más lejos, recientemente unos investigadores de la Universidad de Washington crearon un vídeo de Barack Obama, anterior presidente de Estados Unidos, dando un discurso que parece absolutamente real, ya que ni siquiera su esposa, Michelle Obama, podría distinguir a su marido. El potencial para el bulo y la confusión es impresionante, pudiéndose crear noticias que asusten o induzcan a la población a actuar de cierto modo. De esta manera, condicionar el voto en las elecciones sería muy sencillo. Pero los avances en Inteligencia Artificial pueden hacer posible que puedan causarse daños devastadores, mediante armas de destrucción, ya que tendrían al alcance de su mano tecnologías de código abierto en drones y en software de detección facial, que podrían ser dirigidos hacia un objetivo concreto. En los aseos del Templo del Cielo, en Pekín, los distribuidores de papel higiénico están equipados con Inteligencia Artificial para evitar robos. Si alguien intenta utilizarlos varias veces, el distribuidor lo reconoce y no le da más papel, recordándole educadamente que ya ha sido servido. Una de las universidades de Pekín instaló esta tecnología en la entrada de los dormitorios para asegurarse de que solo sus alumnos podían entrar en ellos. “Ello nos permite verificar mejor dónde se encuentran los estudiantes“, explicó un responsable del centro a la agencia Xinhua. Los Bancos también han empezado a equipar sus cajeros automáticos con esta técnica, para sustituir a las tarjetas de crédito, mientras que los profesionales del sector turístico también ven ventajas en el reconocimiento facial, por lo que China Southern Airlines ha empezado a eliminar las tarjetas de embarque. En Shanghái, además, un sistema de este tipo permite detectar a gente perdida por la calle, principalmente personas ancianas o con discapacidad cognitiva, y llevarlos de vuelta con su familia. Este nuevo avance se enmarca en una estrategia más amplia de desarrollo de esta tecnología.
Tal como hemos indicado antes, el gobierno chino anunció en julio que pretende hacer de su país el número uno en inteligencia artificial para 2030. Esta tendencia, según Yue Lin, profesor de Derecho en la Universidad de Shanghái, está impulsada principalmente por compañías chinas de tecnología como Alibaba o Baidu. “Pero aún es pronto para evaluar las consecuencias que esta técnica pueda tener en la vida privada de las personas“, considera Yue Lin. “La autoridad de la policía no ha cambiado pero, indiscutiblemente, tiene más poder“, añade. “Esto no ocurre solo en China, pasa lo mismo en todo el mundo. Pero, quizá, para los chinos sea algo bueno y para los estadounidenses algo terrible“. La policía china usa gafas de reconocimiento facial para identificar a sospechosos. Se dice que los agentes han logrado detener a siete presuntos delincuentes con esta tecnología, basada en la Inteligencia Artificial. Escenas propias de una película de ciencia ficción son ya una realidad en China. En plena operación salida de Año Nuevo lunar, con millones de personas pasando cada día por las estaciones de ferrocarril, los agentes son capaces de identificar, solamente con unas gafas conectadas a sistemas dotados de Inteligencia Artificial, aquellos pasajeros acusados de haber cometido un crimen. Es para algunos pura magia, y para otros un gran peligro, dado el rápido avance de la inteligencia artificial en el país asiático. El sistema se ha puesto a prueba con éxito en Zhengzhou, capital de la superpoblada provincia de Henan. Los agentes, equipados con unas gafas tintadas que incorporan una pequeña cámara, se sitúan en todas las entradas de la estación de alta velocidad de la ciudad. La cámara es capaz de captar todas las caras de los transeúntes, una información que se cruza con la base de datos policial y busca coincidencias con la lista de sospechosos de haber cometido un crimen. Los resultados se conocen de forma prácticamente inmediata en un dispositivo móvil similar a una tableta. Los agentes chinos detuvieron, con la ayuda de estas gafas, que tienen una estética parecida a unas que lanzó Google, a siete personas acusadas de delitos, tales como el tráfico de personas o haberse dado a la fuga después de un atropello. El sistema no solamente busca a presuntos criminales, sino que permite verificar la identidad de todas las personas que va escaneando. Ello dio lugar a que también se arrestara a 26 pasajeros que viajaban con documentación falsa. Un portavoz del departamento de Seguridad Pública de la provincia, Zhang Xiaolei, explicó al periódico estatal Global Times que la tecnología, basada en la Inteligencia Artificial, solamente necesita una imagen de la cara de cada persona para empezar la búsqueda, lo que representa una mejora significativa en comparación con sistemas anteriores que requerían varias fotografías hechas desde ángulos distintos.
En los últimos años, China ha dado un impulso significativo a la Inteligencia Artificial, una tecnología que el Partido Comunista chino considera estratégico. Algunas de sus aplicaciones, especialmente las que se basan en el reconocimiento facial, empiezan a tomar forma en asuntos relacionados con la seguridad nacional. A este caso en Henan se le suma, por ejemplo, la identificación de conductores que violan las normas de tráfico en Shanghái, el hallazgo en pocas horas de un niño que había sido secuestrado en Shenzhen, o la detención de personas buscadas por la policía en grandes eventos, como el Festival Internacional de la Cerveza de la ciudad costera de Qingdao. Otras tecnologías de empresas especializadas en reconocimiento de voz han permitido a las fuerzas de seguridad desarticular redes dedicadas a las estafas telefónicas en la provincia de Anhui o la identificación de narcotraficantes. Estos avances, a disposición del inmenso aparato policial del Estado chino, son vistos con preocupación por los críticos, dadas sus implicaciones en la privacidad, ya que se teme que sean usados para abortar cualquier indicio de disidencia. En la región de Xinjiang, hogar de la minoría musulmana uighur, duramente reprimida por las autoridades chinas, se han creado bases de datos biométricos, que incluye huellas dactilares, escaneo del iris e, incluso, ADN, según denuncia la organización pro derechos humanos Human Rights Watch. El periódico South China Morning Post, de Hong Kong, informó que Pekín está ultimando un sistema de reconocimiento facial que permitirá identificar cualquiera de los casi 1.400 millones de ciudadanos chinos en solamente tres segundos y con una precisión del 90%. El sistema se conectaría con las decenas de millones de cámaras de circuito cerrado desplegadas por todo el país. Mediante dispositivos móviles, como las gafas antes indicadas y la tecnología que hay detrás, como la Inteligencia Artificial, el control sobre la población podría ser continuo y en cualquier lugar, alcanzando hasta los últimos rincones que actualmente escapan de las cámaras, un escenario cada vez más parecido al Gran Hermano de George Orwell. Los expertos vaticinan que el desarrollo de la Inteligencia Artificial (IA), el mayor reto tecnológico de la historia, dará a luz una nueva generación de robots autónomos capaces de atender las necesidades de los seres humanos.
Pero ¿representarán los robots una amenaza? Si hacemos caso a Elon Musk, la humanidad se enfrenta a una nueva y formidable amenaza, la Inteligencia Artificial. “Es como esas historias en las que alguien convoca al demonio. Siempre hay un tipo con un pentáculo y agua bendita convencido de que así podrá controlarle, y claro, no funciona”, señala Elon Musk, un físico, inversor y magnate nacido en Sudáfrica pero con nacionalidad canadiense y estadounidense. Musk es conocido por ser cofundador de PayPal, Tesla Motors, SpaceX, Hyperloop, SolarCity, The Boring Company y OpenAI. Es director general de SpaceX, director general de Tesla Motors, presidente de SolarCity, así como copresidente de OpenAI. En junio de 2017 su fortuna se estimaba en 17,4 mil millones de dólares estadounidenses, lo que le convierte en la 56ª persona más rica del mundo. En diciembre de 2016, Musk fue nombrado como la 21ª persona más poderosa del mundo por la revista Forbes. Musk afirma que los propósitos de SolarCity, Tesla y SpaceX giran alrededor de su visión de cambiar el mundo y la humanidad de forma drástica. Algunas de sus metas consisten en frenar el proceso de calentamiento global mediante el abandono de los combustibles fósiles y la utilización de energías renovables, sobre todo la energía solar. También tiene como objetivo reducir el riesgo de una posible extinción de la raza humana mediante la evolución hacia una “civilización multiplanetaria“, a través de la creación de una colonia humana permanente en Marte de alrededor de un millón de personas. A Elon Musk se le atribuye frecuentemente la creación del primer automóvil eléctrico económicamente viable, el Tesla Roadster. Además, Musk ha diseñado un sucesor del Transbordador Espacial, el Falcon 9. SpaceX es la empresa privada de exploración espacial más grande del mundo. Su preocupación tiene mucho que ver con el dinero. Los pesos pesados del sector tecnológico están apostando fuerte en este sentido. Google, por ejemplo, adquirió el año pasado DeepMind, una empresa especializada en el desarrollo de redes neurales en la que ya había invertido Musk. Google trabaja en un sistema informático capaz de distinguir en un vídeo una cara humana de la de un perro, de gente patinando o durmiendo, etc… Y todo mediante la Inteligencia Artificial y sin que nadie haya puesto etiquetas en el archivo previamente. La idea es que vaya aprendiendo, por así decirlo, tras analizar millones de grabaciones. IBM, por su parte, afina su superordenador Watson, que en 2011 derrotó a los campeones humanos del concurso estadounidense de preguntas y respuestas Jeopardy. Su intención es mejorar las funciones cognitivas del ingenio y comprobar sus capacidades para realizar diagnósticos médicos, análisis de la personalidad y traducciones en tiempo real, entre otras tareas. Los ingenieros de Facebook no se quedan atrás y han ideado un algoritmo que permite reconocer un rostro con éxito en el 97 % de las veces, aunque la definición no sea muy buena. Musk asegura que las cosas van demasiado rápido, y que por eso la Inteligencia Artificial es una tecnología que puede resultar tan peligrosa como las armas nucleares.
Otro problema de la robótica e inteligencia artificial es su incidencia en el empleo. Según la consultora Forrester, en el año 2025 la robotización habrá acabado con un 7% de los empleos de Estados Unidos. En un foro con gobernadores de distintos estados norteamericanos, Elon Musk explicó que la robotización y, sobre todo, la evolución de la Inteligencia Artificial le causaba mucha inquietud, por lo que tenía que ser regulada. Toda evolución plantea problemas éticos, además de prácticos, a todos los niveles y a Musk le preocupa que la Inteligencia Artificial presente un riesgo existencial para la civilización y que no sea percibido así por la sociedad. Además, Musk está preocupado por el mercado laboral: “Los robots van a hacer todo mejor que nosotros”. Las proyecciones futuras apuntan a que habrá más máquinas haciendo el trabajo de humanos. Entonces, ¿en qué trabajaremos los seres humanos? y ¿cómo podremos mantener suficientes ingresos para seguir siendo consumidores? Se creará empleo, sobre todo en el área de las ciencias de los datos y en especialistas en robótica, que serán aproximadamente un 9% del total. Pero se destruirá el 16% del empleo, lo que equivale a esta pérdida neta del 7%. Según Forrester, los trabajos de oficina y administrativos son los que más rápidamente van a verse amenazados por esta transición, mientras que quienes tengan mayor formación en campos técnicos, mayor posibilidades tendrán de trabajar. Pero ante la posibilidad de que se pierdan tantos trabajos en una sociedad ya con profundas desigualdades económicas y sociales, se está empezando a hablar de un par de opciones para empezar a pensar en el futuro de la sociedad. La primera es reducir la jornada laboral y que el trabajo que haya se reparta mejor. Los seres humanos van a tener que trabajar muchos más años debido a la mayor expectativa de vida, pero el trabajo que haya tendrá que ser compartido así como los ingresos. Otra opción, que puede coexistir con la anterior es la de la Renta Básica Universal. No es una idea nueva, ya se ha hablado de ello durante años y ya se ha experimentado en Silicon Valley (Estados Unidos), India, Canadá y Finlandia, entre otros países. Se trata de garantizar una compensación que mantenga a las personas por encima del nivel de la pobreza, independientemente de si tienen un trabajo remunerado o no. El objetivo sería que cubra las necesidades básicas y que, de momento, podría ayudar a superar el concepto del pobreza.
Entre los críticos que anuncian un apocalipsis causado por el uso de la Inteligencia Artificial destaca la voz del filósofo británico Nick Bostrom, de la Universidad de Oxford, que predice que nuestro destino será como el de los caballos, cuando fueron sustituidos por los automóviles y los tractores. Para Bostrom, la Inteligencia Artificial supone un riesgo existencial para la humanidad, comparable al del impacto de un gran asteroide o a un holocausto nuclear. Todo ello siempre que podamos construir ordenadores pensantes y con la capacidad de aprender. Hans Moravec, que nació en 1948 en Austria, es un investigador en robótica en la Carnegie Mellon University. Es conocido por sus escritos sobre robótica, inteligencia artificial, y en general sobre el impacto de la tecnología en la sociedad. Se le considera un futurólogo que ha publicado diversos artículos desde la óptica del transhumanismo, movimiento cultural e intelectual internacional que tiene como objetivo final transformar la condición humana mediante el desarrollo y fabricación de tecnología ampliamente disponibles, que mejoren las capacidades humanas, tanto a nivel físico como psicológico o intelectual. En su trabajo como ingeniero, Moravec ha desarrollado diversas técnicas de visión artificial. Moravec estaba convencido de que en cincuenta años los androides desplazarían a los humanos, todo ello gracias al avance de los microprocesadores y su capacidad de manejar cada vez más información. Según Moravec, la evolución de las máquinas iba a ser imparable. Moravec dijo una frase terrible: “Ha llegado la hora de que nos marchemos”. Moravec dejó el instituto para fundar una compañía de robots industriales con visión 3D. Hace años Moravec estaba fascinado por un nuevo buscador de internet, el más inteligente y mejor diseñado. Se trataba de Google. Ahora, Google ha comprado una empresa de Inteligencia Artificial a Musk y ha desarrollado el primer coche autónomo, que ya ha recorrido 1,6 millones de kilómetros sin conductor, así como un sistema que diferencia gatos de personas en Youtube. Hay una cantidad ingente de información que circula por Internet y la capacidad de computación aumenta sin cesar. Estos nos hace meditar sobre si, tal vez, algún día una máquina llegue a pensar como nosotros. El futurólogo Raymond Kurzweil afirma que en el 2045 las computadoras serán mucho más potentes que todos los cerebros humanos de la Tierra juntos.
Para Nils John Nilsson, científico de la computación norteamericano, son cuatro los pilares básicos en los que se apoya la inteligencia artificial. Uno sería la búsqueda del estado requerido entre el conjunto de los estados producidos por las acciones posibles. Otro serían los algoritmos genéticos, análogos al proceso de evolución de las cadenas de ADN. Un tercero serían las redes neuronales artificiales, que simula el funcionamiento físico del cerebro de animales y humanos. Por último tenemos el razonamiento mediante una lógica formal, análogo al pensamiento abstracto humano. También existen distintos tipos de percepciones y acciones, que pueden ser obtenidas y producidas por sensores físicos y mecánicos en máquinas, o por pulsos eléctricos u ópticos en computadoras. Varios ejemplos los podemos encontrar en el área del control de sistemas, la planificación automática, la habilidad de responder a diagnósticos y a consultas de los consumidores, el reconocimiento de escritura, el reconocimiento del habla y el reconocimiento de patrones. Actualmente los sistemas de Inteligencia Artificial son parte habitual en campos como la economía, la medicina, la ingeniería, o en el militar, y se ha usado en gran variedad de aplicaciones de software, juegos de estrategia, como el ajedrez, así como en videojuegos. Podemos considerar la Inteligencia Artificial dividida en dos categorías: La búsqueda heurística y la representación del conocimiento. La búsqueda heurística es una estrategia que limita mucho la búsqueda de soluciones ante grandes volúmenes de datos. Por lo tanto, ante un problema, nos ayuda a seleccionar las bifurcaciones dentro de un árbol que tenga más posibilidades. Con ello se restringe la búsqueda, aunque no siempre se garantiza una solución adecuada. Todo lo que se debe tener en cuenta para que una heurística sea adecuada es que nos proporcione soluciones que sean lo suficientemente buenas. Además, con la utilización de la búsqueda heurística, no será necesario replantear un problema cada vez que se afronte, ya que si ya ha sido planteado anteriormente, se sugerirá automáticamente la forma en que se ha de proceder para resolverlo.
La representación del conocimiento es una cuestión clave a la hora de encontrar soluciones adecuadas a los problemas que se planteen. Si analizamos más detenidamente el término encontramos varias definiciones. Según Avron Barr y Edward A. Feigenbaum, autores de The Handbook of Artificial Intelligence, la representación del conocimiento es una combinación de estructuras de datos y de procedimientos de interpretación que, si son utilizados correctamente por un programa de computadora, éste podrá exhibir una conducta inteligente. Según Vicente Bargueño Fariñas y María Felisa Verdejo, profesores del Departamento de Inteligencia Artificial de la UNED, la Inteligencia Artificial tiene como objetivo construir modelos computacionales que al ejecutarse resuelvan tareas con resultados similares a los obtenidos por una persona, por lo que el tema central de esta disciplina es el estudio del conocimiento y su manejo. Y según Bruce G. Buchanan y Edward H. Shortliffe, autores de Rule-Based Expert Systems: The MYCIN. Experiments of the Stanford Heuristic Programming Project, la representación del Conocimiento en un programa de Inteligencia Artificial significa elegir una serie de convenciones para describir objetos, relaciones, y procesos en el mundo. Gran parte del esfuerzo realizado en la consecución de ordenadores inteligentes, según Bertrand Raphael, científico de computación norteamericano, ha sido caracterizado por el intento continuo de conseguir más y mejores estructuras de representación del conocimiento, junto con técnicas adecuadas para su manipulación, que permitiesen la resolución inteligente de algunos de los problemas planteados. El razonamiento que puede tener cualquier persona, ha demostrado ser una de los aspectos más difíciles de representar en un ordenador. El sentido común a menudo nos ayuda a prever multitud de hechos corrientes, pero es muy complicado representarlos en un ordenador, dado que los razonamientos son casi siempre inexactos y las conclusiones y reglas en las que se basan solamente son aproximadamente verdaderas.
En el campo de la Inteligencia Artificial se han desarrollado diferentes lenguajes específicos para los diferentes campos de aplicación. Este tipo de software ofrece una gran modularidad, que permiten una gran capacidad de tomar decisiones de programación hasta el último momento, es decir cuando el programa ya está ejecutándose. Ofrecen grandes facilidades en el manejo de listas, en que las listas son la estructura más habitual usada para la representación del conocimiento en la Inteligencia Artificial. Stuart Russell y Peter Norvig, en su libro Inteligencia artificial: Un enfoque moderno, nos dicen que los programas de inteligencia artificial representan sistemas que piensan como humanos. Estos sistemas tratan de emular el pensamiento humano. Por ejemplo, mediante redes neuronales artificiales. Se trata de la automatización de actividades que vinculamos con procesos de pensamiento humano, actividades como la toma de decisiones, resolución de problemas y aprendizaje. Estos sistemas tratan de actuar como humanos; es decir, imitan el comportamiento humano, tal como hace la robótica. Se intenta que los computadores realicen tareas que, por el momento, los humanos hacen mejor. Son sistemas que piensan racionalmente. Es decir, con lógica, tratando de imitar el pensamiento lógico racional del ser humano, tal como hacen los sistemas expertos. También implica el estudio de los cálculos que hacen posible percibir, razonar y actuar.
La Inteligencia Artificial se divide en dos escuelas de pensamiento: la que trata de la inteligencia artificial convencional, y la que trata de la inteligencia computacional. La Inteligencia Artificial convencional se conoce también como Inteligencia Artificial simbólico-deductiva. Está basada en el análisis formal y estadístico del comportamiento humano ante diferentes problemas, tales como el razonamiento basado en casos o los sistemas expertos. Mientras que la Inteligencia Computacional implica el desarrollo o aprendizaje interactivo, en que el aprendizaje se realiza basándose en datos empíricos. El término “inteligencia artificial” fue acuñado formalmente durante la conferencia de Dartmouth. En el verano de 1956 tuvo lugar una conferencia en Dartmouth sobre inteligencia artificial, organizada por Marvin Minsky, John McCarthy y Claude Shanon. La conferencia reunió a todos los que trabajaban en el recién estrenado campo de la inteligencia artificial. En ella se discutió la lógica teórica desarrollada por los autores citados. La lógica teórica fue considerada como el primer programa de inteligencia artificial y usada para resolver problemas de búsqueda heurística. En la conferencia se acuño la expresión “Inteligencia Artificial” y prefijo que al cabo de 25 años los ordenadores harían todo el trabajo de los hombres. Pero los fundadores fueron demasiado optimistas con respecto al futuro de su disciplina. Uno de los autores, Marvin Minsky, publicó un artículo en el Science Journal que decía: “Actualmente, las máquinas resuelven problemas de acuerdo con los principios que hemos establecidos en ellas. Dentro de poco quizá aprendamos a ponerlas a trabajar en problemas específicos de mejorar su capacidad de resolver problemas. Una vez traspasado cierto umbral, esto nos llevaría a una espiral de aceleración y sería difícil perfeccionar un regulador fiable para refrenarlo”.
Un año después de la conferencia de Dartmouth, Herbert Alexander Simon, pionero en el campo de la Inteligencia Artificial, estaba convencido que un ordenador sería capaz de hacer cualquier cosa que haga una persona, sólo que mejor. Tiempo después, formulo junto con Allen Newell, investigador en informática y psicología cognitiva, la predicción de que un ordenador seria campeón mundial de ajedrez. Para entonces ya se habían propuesto muchas definiciones distintas que en ningún caso habían logrado ser aceptadas totalmente por la comunidad investigadora. La Inteligencia Artificial es una de las disciplinas más nuevas junto con la genética moderna. Pero las ideas más básicas se remontan a los griegos. Aristóteles (384 – 322 a. C.) fue el primero en describir un conjunto de reglas que describen una parte del funcionamiento de la mente para obtener conclusiones racionales, y Ctesibio de Alejandría (250 a. C.) construyó la primera máquina auto controlada, un regulador del flujo de agua. En el 1315 Ramon Llull en su libro Ars magna ya tuvo la idea de que el razonamiento podía ser efectuado de manera artificial. Muchos de los investigadores sobre la Inteligencia Artificial sostienen que «la inteligencia es un programa capaz de ser ejecutado independientemente de la máquina que lo ejecute, computador o cerebro». El concepto de inteligencia artificial es aún demasiado difuso. Podríamos definir esta ciencia como la encargada de imitar el cerebro, que no el cuerpo, de una persona en todas sus funciones. Estas pueden ser las ya existentes en el ser humano o bien otras novedosas e incorporadas en el desarrollo de una máquina inteligente. En relación a la conciencia y las emociones, y aunque por el momento la mayoría de los investigadores en el ámbito de la Inteligencia Artificial se centran sólo en el aspecto racional, hay expertos que consideran seriamente la posibilidad de incorporar componentes «emotivos» como indicadores de estado, a fin de aumentar la eficacia de los sistemas inteligentes en determinadas situaciones. A diferencia de los humanos, la Inteligencia Artificial aún no puede comprender algunos conceptos humanos, como el amor, el sentido de la vida, el libre albedrío, o las emociones humanas.
Steven Pinker, psicólogo de Harvard, nos dice que, particularmente en el caso de los robots móviles, es necesario que estos cuenten con algo similar a las emociones, con el objeto de saber en cada instante qué hacer a continuación. Y Bruce Mazlish, un historiador del MIT, afirma que, al tener «sentimientos» y, al menos potencialmente, «motivaciones», los robots podrán actuar de acuerdo con sus «intenciones». Así, se podría equipar a un robot con dispositivos que controlen su medio interno, haciendo que, por ejemplo, «sientan hambre» al detectar que su nivel de energía está descendiendo o que «sientan miedo» cuando este esté demasiado bajo. Johnson-Laird, en su teoría de modelos mentales, nos dice que señal podría interrumpir los procesos de alto nivel y obligar al robot a conseguir el preciado elemento. Incluso se podría introducir el «dolor» o el «sufrimiento físico» en los robots, a fin de evitar los fallos de funcionamiento que provocasen daños irreparables. Esto significa que los sistemas inteligentes deben ser dotados con mecanismos de retroalimentación que les permitan tener conocimiento de sus estados internos, igual que sucede con los seres humanos. Los sistemas inteligentes, al no tener en cuenta elementos emocionales, pueden evitar olvidar el objetivo que deben alcanzar. En los humanos el olvido o abandono de un objetivo por perturbaciones emocionales es un problema que en algunos casos les llega a incapacitar. Los sistemas inteligentes, al combinarse con una memoria durable, así como una asignación de objetivos, junto a la toma de decisiones y asignación de prioridades, logran un comportamiento en extremo eficiente, especialmente ante problemas complejos y peligrosos. En síntesis, lo racional y lo emocional están de tal manera interrelacionados entre sí, que se podría decir que no sólo no son aspectos contradictorios sino que son en cierto modo complementarios. Las principales críticas a la Inteligencia Artificial tienen que ver con su capacidad de imitar por completo a un ser humano.
Sin embargo, hay expertos en el tema que indican que ningún ser humano, a nivel individual, tiene capacidad para resolver todo tipo de problemas. Por ello, autores como Howard Gardner, psicólogo, investigador y profesor de la Universidad de Harvard, han teorizado que existen inteligencias múltiples. Howard Gardner defiende que, así como hay muchos tipos de problemas que resolver, también hay muchos tipos de inteligencias. Tomó la decisión de escribir acerca de las «Inteligencias Múltiples» para resaltar el número desconocido de capacidades humanas, e inteligencias, para subrayar que estas capacidades son tan fundamentales como las que tradicionalmente detecta el Cociente Intelectual. Gardner menciona que los seres humanos poseemos una gama de capacidades y potenciales ―inteligencias múltiples― que se pueden emplear de muchas maneras productivas, tanto juntas como por separado. Y el conocimiento de las múltiples inteligencias ofrece la posibilidad de poder desplegar con la máxima flexibilidad y eficacia en el desempeño de las distintas funciones definidas por cada sociedad. De este modo la teoría de las inteligencias múltiples se desarrolló con el objetivo de describir la evolución y la topografía de la mente humana, y no como un programa para desarrollar un cierto tipo de mente o para estimular un cierto tipo de ser humano. Un sistema de inteligencia artificial debería resolver problemas, por lo que es fundamental en su diseño la delimitación de los tipos de problemas que resolverá y las estrategias y algoritmos que utilizará para encontrar la solución. En los seres humanos, la capacidad de resolver problemas tiene dos aspectos: los aspectos innatos y los aspectos aprendidos. Los aspectos innatos permiten, por ejemplo, almacenar y recuperar información en la memoria, mientras que en los aspectos aprendidos reside el saber resolver un problema matemático mediante el algoritmo adecuado.
Del mismo modo que un ser humano debe disponer de herramientas que le permitan solucionar ciertos problemas, los sistemas artificiales deben ser programados de modo tal que puedan llegar a resolverlos. Muchas personas consideran que el test de Turing ha sido superado, citando conversaciones en que, al dialogar con un programa de inteligencia artificial programado para participar en un chat, no saben que hablan con un programa. Sin embargo, esta situación no es equivalente a un test de Turing, que requiere que el participante esté sobre aviso de la posibilidad de hablar con una máquina. Otros experimentos mentales como la Habitación china, de John Searle, célebre por sus contribuciones a la filosofía del lenguaje, a la filosofía de la mente y de la conciencia, han mostrado cómo una máquina podría simular pensamiento sin realmente poseerlo, pasando el test de Turing sin siquiera entender lo que hace, tan solo reaccionando de una forma concreta a determinados estímulos. Esto demostraría que la máquina en realidad no está pensando, ya que actuar de acuerdo con un programa preestablecido sería suficiente. Si para Turing el hecho de engañar a un ser humano que intenta evitar que le engañen es muestra de una mente inteligente, Searle considera posible lograr dicho efecto mediante reglas definidas a priori. Uno de los mayores problemas en sistemas de inteligencia artificial es la comunicación con el usuario. Este obstáculo es debido a la ambigüedad del lenguaje, y se remonta a los inicios de los primeros sistemas operativos informáticos. La capacidad de los seres humanos para comunicarse entre sí implica el conocimiento del lenguaje que utiliza el interlocutor. Para que un humano pueda comunicarse con un sistema inteligente hay dos opciones: o bien que el humano aprenda el lenguaje del sistema como si aprendiese a hablar cualquier otro idioma distinto, o bien que el sistema tenga la capacidad de interpretar el mensaje del usuario en la lengua que el usuario utiliza. Un ser humano, durante toda su vida, aprende el vocabulario de su lengua nativa o materna, siendo capaz de interpretar los mensajes utilizando el contexto para resolver ambigüedades. Sin embargo, debe conocer los distintos significados para poder interpretar, y es por esto que lenguajes especializados y técnicos son conocidos solamente por expertos en las respectivas disciplinas.
Un sistema de Inteligencia Artificial se enfrenta con el mismo problema, la polisemia, una misma palabra con varios significados. Los desarrollos en Inteligencia Artificial son mayores en los campos disciplinares en los que existe mayor consenso entre especialistas. Un sistema experto es más probable que sea programado en física o en medicina que en sociología o en psicología. Por ejemplo, en física hay acuerdo sobre el concepto de velocidad y cómo calcularla. Sin embargo, en psicología se discuten los conceptos y cómo proceder ante cierto diagnóstico. Esto dificulta la creación de sistemas inteligentes porque siempre habrá desacuerdo sobre la forma en que debería actuar el sistema para diferentes situaciones. A pesar de esto hay grandes avances en el diseño de sistemas expertos para el diagnóstico y toma de decisiones en el ámbito médico y psiquiátrico. Al desarrollar un robot con inteligencia artificial se debe tener cuidado con la autonomía, ya que hay que tener cuidado en no vincular el hecho de que el robot interaccione con seres humanos a su grado de autonomía. Si la relación de los humanos con el robot es de tipo maestro esclavo, y el papel de los seres humanos es dar órdenes y el del robot obedecerlas, entonces sí cabe hablar de una limitación de la autonomía del robot. Pero si la interacción de los seres humanos con el robot es de igual a igual, entonces su presencia no tiene por qué estar asociada a restricciones para que el robot pueda tomar sus propias decisiones. La animatrónica es la técnica que, mediante el uso de mecanismos robóticos o electrónicos, simula el aspecto y comportamiento de los seres vivos empleando marionetas u otros muñecos mecánicos. Se caracterizan por tener un aspecto físico antropomórfico. La animatrónica junto con la inteligencia artificial es lo que da como resultado los androides, como se suele conocer a los robots que imitan el comportamiento humano. Tenemos una técnica capaz de dotar a máquinas del aspecto y comportamiento de seres vivos. Es decir, humanizar a los robots.
Pero ya no sólo hablamos que los movimientos sean muy reales, sino que además, parezca real gracias a la piel sintética y al maquillaje. La empresa Disney está a punto de usar la animatrónica y la inteligencia artificial para simular uno de sus personajes en la vida real: Pascal, uno de los personajes de la película Enredados. Por otro lado, Dubai ya está usando policías robots creados por PAL Robotics. En efecto, la Policía de Dubái tiene un nuevo integrante hecho de acero y sistemas informáticos. Se trata de un robocop, un robot humanoide fabricado por la empresa española Pal Robotics, que ha empezado a patrullar los centros comerciales y puntos turísticos de la capital de los Emiratos Árabes. El modelo mide 1,67 metros, pesa 99 kilos y cuenta con una pantalla táctil incrustada en su pecho, a través de la cual los ciudadanos podrán obtener información, denunciar delitos, pagar multas o contactar con diferentes comisarías de la ciudad. Su tecnología de reconocimiento facial tiene una precisión del 80%, según informa el Departamento de Policía de Dubái, pero las cámaras de los ojos del robot enviarán vídeos en streaming a las unidades de agentes físicos. Ese es el primer paso del plan para que los robots representen el 25% de la fuerza policial de la ciudad hasta 2030. “Actualmente, la mayoría de las personas van a las comisarías, pero con esa herramienta podemos atenderlas de manera más eficiente las 24 horas de todos los días“, afirma Khalid Al Zarooqui, director del Departamento de Servicios Inteligentes de la Policía. “El robot va a proteger a los ciudadanos de la delincuencia, porque puede transmitir lo que está sucediendo de inmediato a nuestro centro de mando y control”, añade. Nueve idiomas, como inglés, español, francés y chino, serán añadidos al vocabulario del robocop.
La tecnología deepfakes, una técnica de síntesis de imagen humana basada en inteligencia artificial, pone en evidencia la posible utilización maligna de la Inteligencia Artificial. Con la ayuda de la inteligencia artificial muestra la posibilidad de suplantar identidades con los rostros de otras personas. En 2017 se descubrió que una comunidad de internet utilizaba programas de inteligencia artificial para conseguir superponer la cara de actrices famosas en películas pornográficas. Celebridades como Emma Watson o Gal Gadot denunciaron la violación de los derechos de imagen tras sufrir la utilización de sus rostros para hacerlas pasar por actrices porno. Este sistema permite hacer un reconocimiento facial de cualquier persona, adoptar los gestos del rostro, así como las poses. El periodista y escritor español Santiago Camacho, especializado en temas relacionados con teorías conspirativas, explica que hay varios casos de famosos a nivel mundial que han sido manipulados gracias a la inteligencia artificial. Algunos de los casos son de conocidos políticos, como Donald Trump, Barack Obama, Vladimir Putin e, incluso, John Kennedy. Esta tecnología no solo tiene la capacidad de manipular la realidad, sino que gracias al avance de la inteligencia artificial ya se pueden incluso manipular retransmisiones en directo o el audio. El peligro se manifiesta en que cualquiera, con un equipo tecnológico doméstico, puede hacer posible esta manipulación. La calidad de los vídeos mejora gracias a la optimización de la inteligencia artificial. “Dentro de un año esto se hará a un velocidad perfectamente real“, asegura Santiago Camacho. Ello implicaría que en un futuro, debido a las mejoras tecnológicas, las retransmisiones en directo y los vídeos quedarán en entredicho. Pero, ¿será posible detectar esta manipulación?
La presencia de la tecnología en todos los ámbitos de la vida cotidiana, incluyendo las Ciencias Sociales, ocurre de manera independiente al debate que hay con respecto a sus bondades y defectos. El hombre se ha aplicado a sí mismo el nombre científico de Homo Sapiens como una valoración de la trascendencia de nuestras habilidades mentales, tanto para nuestra vida cotidiana como en nuestro propio sentido de identidad. Lo que nos propone la Realidad Virtual y, en especial, la Inteligencia Artificial, es lograr la comprensión de las entidades inteligentes. Por ello, una de las razones de su estudio es el aprender más acerca de nosotros mismos. Los esfuerzos de la Inteligencia Artificial están encaminados tanto a la construcción de entidades inteligentes como a su comprensión. Si bien nadie podría pronosticar con toda precisión lo que sé podría esperar en el futuro, es evidente que las computadoras que poseen una inteligencia a nivel humano, o superior, tendrán repercusiones muy importantes en nuestra vida diaria así como en el devenir de la civilización. El problema que aborda la Inteligencia Artificial es uno de los más complejos e interesantes. La pregunta clave es, ¿cómo es posible que un diminuto y lento cerebro, sea biológico o electrónico, tenga la capacidad para percibir, comprender, predecir y manipular un mundo cuya complejidad le excede? Pero el investigador del campo de la Inteligencia Artificial cuenta con pruebas contundentes de que tal búsqueda es factible. El estudio de la inteligencia es una de las disciplinas más antiguas. Por más de dos mil años, los filósofos se han esforzado por comprender cómo se ve, aprende, recuerda y razona, así como la manera que estas actividades deberían realizarse. La llegada de las computadoras a principio de la década de los años cincuenta del siglo XX permitió pasar a su aplicación mediante una auténtica disciplina teórica y experimental. La Inteligencia Artificial ha resultado ser algo mucho más complejo de lo que muchos imaginaron al principio, porque las ideas modernas relacionadas con ella se caracterizan por su gran riqueza.
El hecho de conocer las reglas del Ajedrez no nos convierte en grandes maestros. Daniel Kahneman, psicólogo israelí, elaboró un catálogo de los errores que sistemáticamente se cometen en el razonamiento humano. El enfoque centrado en el comportamiento humano constituye una ciencia empírica, que entraña el empleo de hipótesis y de la confirmación mediante experimentos. Las distintas orientaciones han hecho valiosas aportaciones, como John Haugeland, profesor de filosofía, centrado en la filosofía de la mente, la ciencia cognitiva y la fenomenología, que nos dice: “La interesante tarea de lograr que las computadoras piensen (…) máquinas con mente, en su amplio sentido literal“. Junto con la nanotecnología y la Inteligencia Artificial, que están confluyendo rápidamente, la Realidad Virtual es, sin duda, el campo de investigación más importante, el más prometedor y el más inquietante. Según la empresa Fujitsu: “Lo que la humanidad puede soñar, la tecnología lo puede conseguir“. Esta afirmación parece a punto de cumplirse plenamente. Depende en buena medida de que estemos informados sobre sus posibilidades. Imaginemos una televisión envolvente con programas tridimensionales, con objetos que se pueden alzar y manipular y hasta tocar con los dedos y las manos. Podemos estar inmersos en un mundo artificial en donde actuamos de exploradores activos, en lugar de solo ser observadores. Imaginemos que seamos tanto creadores como consumidores de una experiencia artificial. La persona que experimenta la Realidad Virtual está rodeada por una representación tridimensional generada por computadora, y es capaz de desplazarse en el mundo virtual, asirlo y remodelarlo. Un modo de ver la Realidad Virtual es como una ventana mágica que se asoma a otros mundos. La Realidad Virtual provocará que en las décadas venideras la realidad desaparezca detrás de una pantalla. En la comunidad de la Inteligencia Artificial el objetivo es reemplazar la mente humana por la máquina. El objetivo consiste en construir sistemas que amplifiquen la mente humana proveyéndole de auxiliares, basados en nano computadoras, tal vez cuánticas, que hacen las cosas que las mentes tienen dificultades para hacer.
Es fundamental poder estudiar la relación de la Realidad Virtual con la mente humana y las Ciencias Sociales. Existen tres áreas en las que la mente humana es más poderosa que cualquier algoritmo elaborado hasta ahora. La primera es el reconocimiento de imágenes visuales o auditivas. Los computadores científicos ni siquiera tienen un buen método para aproximarse al poder de reconocimiento que usa un bebé para reconocer la cara de su madre desde un ángulo y con una iluminación que no haya visto previamente. La segunda área importante de la superioridad, que tiene el ser humano sobre lo computacional, es el dominio de lo que se llama evaluación. Richard Ernest Bellman, matemático cuya mayor contribución fue la metodología denominada programación dinámica, nos dice que la tercera zona de la superioridad mental humana está en el “Sentido global del contexto que nos capacita para recordar, en el momento apropiado, algo que hemos leído en una oscura revista años atrás, con referencia a un tema completamente diferente y que de pronto se nos aparezca como significativa“. Los tres campos en los que las computadoras son más diestras que la mente humana son la evaluación de cálculos, el acopio de cantidades masivas de datos y la memorización de cosas sin posibilidad de olvidarlas. Entonces se plantea una posible relación entre la estructuración de un sistema cooperativo hombre-máquina. Mientras que la máquina puede hacer los cálculos, memorice y busque las bases de datos, entendiendo por cálculos la evaluación de algunas funciones muy complicadas, el ser humano ejerce la estrategia, la evaluación, el reconocimiento de imágenes, planifica y busca información en un contexto. Cuando uno trata de definir la interfaz para ese sistema, se acerca al umbral de la Realidad Virtual y la Inteligencia Artificial.
¿Qué es lo que permite al cerebro funcionar?, ¿cómo funciona el intelecto humano? y ¿es posible que seres no humanos tengan intelecto? Ha habido ocasiones en las que estas cuestiones han propiciado debates entre científicos sociales e investigadores de la Inteligencia Artificial. Hubert Dreyfus, filósofo estadounidense, nos dice que: “En el campo de la Filosofía de la Ciencia se afirma que las máquinas son capaces de hacer todo lo que pueden hacer y mejor que los humanos, afirmación que se complementa con un intento de entrever las implicaciones de lo anterior en la Filosofía de la Mente, en tanto que los teólogos y estudiosos de lo moral se refugian en el último reducto de esta conducta tan compleja como es la elección moral, el amor, la investigación creativa, que se afirma rebasa el ámbito de cualquier máquina“. Uno de los cuestionamientos filosóficos básicos en la Inteligencia Artificial es: “¿Son capaces de pensar las máquinas?” . La posibilidad de la existencia de “Máquinas pensantes” ha estado presente entre nosotros durante años. Si definimos “Pensar” como algo mediante lo que se “Toman decisiones y se delibera, a través de un cerebro orgánico y natural“, debemos concluir que las computadoras no pueden pensar. Alan Turing, en su famosa ponencia Computing Machine and Intelligence proponía que en vez de preguntarse si pueden pensar las máquinas, lo que debería plantearse es sí la máquina tiene capacidad para una prueba de inteligencia, la que después vino a llamarse test de Turing. Opinaba que para el año dos mil una computadora con capacidad de almacenamiento mucho más grande podría programarse para sostener una conversación con alguien que la interrogase durante cinco minutos, teniendo una posibilidad de 30% de hacer creer al cuestionador que la máquina era un ser humano. La objeción de que las computadoras sólo son capaces de hacer lo que se les indica y que, por lo tanto, no son capaces de hacer nada creativo, es algo con lo que todavía nos topamos en la actualidad. Una sencilla refutación es afirmando que una de las cosas que podemos ordenar a una computadora es que aprenda a partir de su propia experiencia.
Una de las criticas persistentes en contra de la Inteligencia Artificial como proyecto es lo que Turing denominó “Argumento que surge de la informalidad del comportamiento“. Básicamente, consiste en afirmar que la conducta humana es demasiado compleja para que pueda ser expresada a través de un simple conjunto de reglas, por lo que no puede producir una conducta tan inteligente como la de los seres humanos. El principal proponente de este punto de vista es el filósofo estadounidense Hubert Dreyfus, que ha producido una serie de importantes críticas contra la Inteligencia Artificial, como What computers still can’t do o Mind over machine. La postura que critican se conoce como “La Buena y Anticuada IA“, o BAIA, término que fue acuñado por el profesor de filosofía John Haugeland en 1985. En el caso de la BAIA se supone que es posible expresar todo tipo de conducta inteligente mediante un sistema que razone lógicamente a partir de un conjunto de hechos y reglas que describen el dominio. Dreyfus afirma que: “Cuando Minsky o Turing afirman que el hombre puede concebirse como una máquina, seguramente se refieren a que una computadora digital es capaz de reproducir la conducta humana mediante el procedimiento de los datos que representan diversos hechos relacionados con el mundo por medio de operaciones lógicas que pueden reducirse al cotejo, clasificación y a las operaciones booleanas“. Pero la Inteligencia Artificial y La Buena y Anticuada IA (BAIA), no son los mismos conceptos. Muchos de los temas abordados por Dreyfus tales como el conocimiento construido por la experiencia del sentido común, el aprendizaje, o las formas copiladas para la toma de decisiones, se consideran como aspectos importantes del diseño de agentes inteligentes. El aprendizaje por redes neuronales es una forma de aprendizaje para el que se requiere la identificación previa de todas las entradas relevantes y de las salidas correctas. Por lo tanto, no puede operar de manera autónoma sin la ayuda de un entrenador humano.
En áreas tales como la de los juegos, la inferencia lógica, así como la demostración de teoremas, y la amplificación y diagnóstico médico, hemos visto sistemas que se basan en rigurosos principios teóricos que pueden ser tan buenos como los de los expertos humanos. En otras áreas, como el aprendizaje, la percepción visual, la robótica y la comprensión del lenguaje natural, están lográndose rápidos avances mediante la aplicación de mejores métodos analíticos y de una mejor comprensión de los problemas. Ya antes del inicio de la Inteligencia Artificial, filósofos, economistas y otros científicos sociales trataban de encontrar una definición satisfactoria de lo que se debe considerar como una acción racional. Un agente perfectamente racional actúa en todo momento de manera tal que logra maximizar su utilidad esperada, con base en la información que ha obtenido del entorno. En la práctica, los diseñadores de sistemas de Inteligencia Artificial se ven forzados a establecer un compromiso para lograr un desempeño general razonable. En la Teoría de los Juegos son estudiados problemas de decisión en los cuales la utilidad de una determinada acción depende no sólo de elementos aleatorios del entorno, sino también de las acciones de otros agentes. En un escenario normal está presente un conjunto de agentes que toman sus decisiones de manera simultánea, sin saber cuáles son las decisiones de los demás agentes. Si se está de acuerdo en que las máquinas lograrán alcanzar elevados niveles de conducta inteligente y se comunicarán con los humanos como si fueran iguales, es inevitable plantearse varias preguntas, tales como ¿de qué manera van a interaccionar las máquinas inteligentes con los seres humanos? ¿Qué sucedería si las máquinas inteligentes decidiesen actuar en contra del interés humano? En su libro Computer Power and Human Reason, Joseph Weizenbaum, profesor emérito de Informática en el Instituto Tecnológico de Massachusetts y uno de los padres de la cibernética, expone que el efecto de las máquinas inteligentes en la sociedad humana sería tal que proseguir con las investigaciones en el área de la Inteligencia Artificial debe considerarse como poco ético. Uno de los principales argumentos de Weizenbau es que la investigación en Inteligencia Artificial hace factible la idea de que los seres humanos probablemente seamos autómatas, una idea que trae aparejada una pérdida de autonomía o, incluso, de dignidad humana.
Es evidente que todo tipo de tecnología puede llegar a utilizarse negativamente en detrimento de la humanidad. Los argumentos a favor de una determinada tecnología deben tener en cuenta los beneficios, por lo que es necesaria la mejor información posible para la toma de decisiones. Hay futuristas como Edward Fredkin, uno de los pioneros en la física digital, y Hans Moravec, investigador en robótica en la Carnegie Mellon University, que dicen que: “Una vez que la raza humana haya cumplido su destino al dar existencia a entidades de inteligencia superior y quizás ilimitada, su propia conservación parecerá ser menos importante. Algo en lo que, de cualquier forma, vale la pena pensar“. Pero pensando positivamente, la Inteligencia Artificial ofrece grandes posibilidades de mejorar las circunstancias materiales de la vida humana. Una automatización inteligente, ¿permitirá a las personas desarrollar un trabajo más satisfactorio y disfrutar de más tiempo libre? Pero todo indica que los autores de ciencia-ficción están a favor de futuros contrarios a la utopía. La característica más definida de las sociedades contemporáneas es el dominio de la tecnología. La moderna Ciencia y la Tecnología irrumpen con su enorme poder de manipulación. Por todas partes surgen artefactos y objetos que invaden el mundo natural a una velocidad nunca ante soñada, extendiendo los efectos de las acciones humanas hasta límites casi inimaginables. Pero su ideal de servir al ser humano parece haberse invertido. El ser humano se ha convertido en esclavo tecnológico, cuando supuestamente la tecnología debería haberlo liberado. El filósofo y sociólogo alemán Herbert Marcuse ha dicho que “La moderna técnica se ha convertido en dominio sobre la naturaleza y, a través de éste, en dominio sobre otros hombres. Este propósito de dominio metódico científico calculado, pertenece a la forma misma de la razón técnica y se manifiesta en el sometimiento de los individuos y del conocimiento mismo del aparato de producción y distribución“. Por otra parte, es innegable que el dominio tecnológico proporciona una vida más cómoda a una parte de la Humanidad, pero este hecho oscurece el problema de hasta qué punto la tecnología ha sido puesta al servicio de la vida. Marcuse considera que “La racionalidad tecnológica, escudándose en los beneficios prometidos por la tecnología, legitima un poder político expansivo que absorbe toda la área, incluyendo la cultura“.
Según el filósofo y sociólogo alemán Jürgen Habermas, “La conciencia tecnocrática hace desaparecer el interés práctico en aras del interés por la ampliación de nuestro poder técnico. Las informaciones provenientes del ámbito del saber técnicamente utilizable invaden las tradiciones del mundo. La sociedad se controla de la misma forma que se ha intentado controlar a la naturaleza, es decir, reconstruyéndola según el modelo de la racionalidad instrumental o medio-fin“. La objetividad atribuida a las Ciencias Naturales se desplaza hacia la tecnología, que adquiere una reputación que oculta a la conciencia pública las verdaderas relaciones de poder. De esta manera, la tecnología se vuelve Ideológica y pretende legitimarse por el mero hecho de existir. Según el sociólogo francés Alain Touraine, se está considerando que la tecnología es el elemento diseñador de las nuevas relaciones económicas y acaso laborales, sociales, culturales, ideológicas y políticas que hace que se manifiesten unas nuevas condiciones verdaderamente generadoras de nuestro presente-futuro. Debemos preguntarnos si la tecnología será el elemento diseñador de una nueva realidad y, por tanto, de la nueva condición de la sociedad. Sin embargo, además de los efectos económicos y de las nuevas estrategias industriales, hay consecuencias y efectos que no podemos obviar por más tiempo. En efecto, la tecnología va transformando también nuestras mentes ya que, de alguna forma, accedemos a los datos y a las imágenes mentales de diferente manera: Ello producirá que cambiemos nuestro modelo mental de la realidad y nuestra representación del mundo, ya que tenemos más información y más rápidamente. El ordenador, no hay duda, rompe la comunicación socio-afectiva, y al no recrear la imagen social, impide su actualización. Los nuevos medios no amplían los campos de la socialización. Según Alvin Toffler, escritor y futurólogo estadounidense, autor de El Shock del Futuro y La Tercera Ola, las estrategias del desarrollo del mañana para los países pobres vendrán de manos de las nuevas tecnologías y, en consecuencia, las soluciones serán propias, locales, realizadas a la medida de los primeros países que intenten solucionar sus problemas. Simplemente, porque ahora las soluciones a la pobreza y a la injusticia social vendrán de manos de la tecnología y no de la economía. En este sentido, el conocer, o si se quiere, la estructura que da origen y expande el Conocimiento, como la Educación, jugará el papel posibilitador de la moralidad del mañana.
La Educación, y con ella el conocimiento, se convierten en la más necesaria energía que requiere la Tecnología de la Información para su puesta en marcha y posterior desarrollo. El bienestar individual y social precisará entonces del conocimiento, que se convierte así en el posibilitador del futuro, en el verdadero alimentador energético de la tecnología. Sin embargo, el gran cambio a que se verán sometidas las Ciencias Sociales estribará en la inclusión y protagonismo que en su seno jugará la gran revolución de la Tecnología de la Información. Según Jean-Jacques Servan-Schreiber, ensayista y periodista francés, el Conocimiento o mejor dicho, la Innovación del Conocimiento, será el componente principal del desarrollo económico, o incluso del desarrollo general de la Sociedad. O como dice el sociólogo Salvador Giner: “La innovación ha dejado de ‘estar en manos de la técnica para ser fruto del cognitivismo sistemático“. Ello implica revolucionar el conocimiento, no sólo en el ámbito formal sino sustancialmente. Innovar el Conocimiento es crear nuevo Conocimiento, y esto, la creación de nuevo conocimiento, no puede darse por medios que no sean nuevos. Para crear no sólo nuevo Conocimiento sino Conocimiento realmente innovador, como el Conocimiento Virtual, hay que estudiar otras realidades no naturales. Ello implica fundamentar la generación de la innovación en el estudio de otros objetos nuevos, creados ad hoc, o sea, artificiales. En este sentido, pues, sólo la Realidad Artificial puede plantearse como el contexto de la innovación científico-tecnológica. De ahí que, cada vez más, se crea en que la nueva fuente de poder, a cualquier nivel (económico, militar), será, de ahora en adelante, la creación de un nuevo Conocimiento, o de Conocimiento innovador. Ahora bien, la creación de nuevo Conocimiento, lo que podríamos denominar Conocimiento Virtual, depende, forzosamente, de la creación de nuevos entornos de Conocimiento. El salto está, evidentemente, en superar el Conocimiento de la Naturaleza, o sea de lo natural, para lograr “Otro tipo de Conocimiento“.
La primera condición de la innovación será, en oposición a la realidad natural, crear realidades artificiales que, a su vez, contextualizarán el nuevo Conocimiento. El futuro se encuentra en el desarrollo de lo que ya hace años, Herbert Alexander Simon, economista, politólogo y teórico de las ciencias sociales estadounidense, denominará La Ciencia Artificial. en su libro Las Ciencias de lo Artificial. Aquí precisamente es donde se encuentra el gran papel a desarrollar por las Tecnologías de la Información, ya que es precisamente gracias a las nuevas tecnologías que se forman nuevos ambientes artificiales y donde, en consecuencia, surge una posibilidad del Conocimiento innovador, o si se quiere del Conocimiento Virtual. Un centro educativo computarizado presupone la creación de un espacio pedagógicamente artificial, ya que las interacciones propias de la adquisición del Conocimiento se desarrollan por y mediante la asistencia del ordenador. Ello, evidentemente, nos proporciona una forma de aprendizaje mediante un artefacto artificial que conlleva la posibilidad de Conocimiento Virtual. La conclusión es que la utilización de tecnología en los aprendizajes implica la generación de nuevas perspectivas intelectuales, ya que la utilización, por ejemplo, del ordenador, implica generar Inteligencia Artificial al desarrollar funcionalidades conceptuales sobre un mecanismo no natural. La utilización del ordenador implica abrir al ser humano nuevas perspectivas intelectuales y actualizar otras capacidades cognitivas hasta ahora no desarrolladas. O sea, una enseñanza asistida por ordenador crea nuevas perspectivas cognitivas y, por tanto, se plantea como conocimiento virtual. El aprendizaje instrumental tecnológicamente implica reconvertir esta tecnología en un medio facilitador de nuevas perspectivas cognitivas, por lo que la Educación tiende a convertirse en una tecnología propia de la construcción humana. Es por tanto posible hablar de nuevas tecnologías y del desarrollo de un nuevo Conocimiento, de un nuevo paradigma científico beneficioso para el ser humano. El Mundo Virtual del futuro, será fruto de las nuevas tecnologías, por lo que la Innovación, el Conocimiento, y toda la Realidad que se está iniciando dependerá cada vez más de la tecnología y de la manera en que se utilice. Veremos de qué lado se decanta el uso de la tecnología. De ello depende nuestro futuro.
Fuentes:
- Pauwels y Bergier – El Retorno de los Brujos
- Murray Tortarolo, G. y Murray Prisant, G. – Grafeno: ¿La siguiente revolución tecnológica?
- Rosa Menéndez y Clara Blanco – El grafeno
- R. Ellis, G. F. Giudice, M. L. Mangano, I. Tkachev, U. Wiedemann – Revisión de la seguridad de las colisiones en el LHC
- Fausto Intilla – Estudio de eventos potencialmente peligrosos durante las colisiones de iones pesados en el LHC: Informe del Grupo de Estudio de Seguridad LHC
- Fritjof Capra – El Tao de la Física
- Gerardo Herrera Corral – El Higgs, el universo líquido y el Gran Colisionador de Hadrones
- Achenbach, Joel – The God Particle
- Barrau & J. Grain – Búsquedas de nuevas físicas (gravedad cuántica) con agujeros negros primordiales
- Sonia Fernández Vidal – La Puerta de los Tres Cerrojos
- Ramon Crehuet – Mecánica Cuántica
- David Deutsch – Física Cuántica de los Viajes a Través del Tiempo
- Stephen Hawking – Historia del Tiempo
- Alberto Clemente de la Torre – Física Cuántica para Filósofos
- Iñaki de la Torre Calvo – Relación entre magia y física cuántica
- Jonathan Katz – ¿De qué manera la mecánica cuántica cambiará la informática?
- Aldous Huxley – Un mundo feliz
- John E. Smith – Biotecnología
- Eric. S Grace – La Biotecnología al desnudo
- Emilio Muñoz – Biotecnología y sociedad: Encuentros Y Desencuentros
- Sarah Romero – La revolución del biohacking
- Victoria S. Nadal – Biohacking, ¿el siguiente paso en la evolución del ser humano?
- María Hidalgo – Biohacking, el nuevo movimiento que hackea tu cuerpo y hace temblar la industria biotecnológica
- Lynn J. Rothschild – CRISPR/Cas9-Assisted Transformation-Efficient Reaction (CRATER) for Near-Perfect Selective Transformation
- Oswaldo Faveron Patriau – El Hacker Cuántico y el Biohacking
- Stuart Russell y Peter Norvig – Inteligencia artificial: Un enfoque moderno
- Alejandro Madruga – Inteligencia artificial, el futuro del hombre
- Nick Bostrom – Superinteligencia: Caminos, peligros, estrategias
- Pablo Rodríguez y Jorge Rizzo – Inteligencia artificial: Cómo cambiará el mundo y tu vida
- Yuval Noah Harari – Homo Deus: Breve historia del mañana
- Klaus Schwab – La cuarta revolución industrial
- Margaret Boden y Inmaculada Pérez Parra – Inteligencia artificial
- Ray Kurzweil – La Singularidad está cerca: Cuando los humanos transcendamos la biología
- Jeremy Rifkin – El fin del trabajo: Nuevas tecnologías contra puestos de trabajo: el nacimiento de una nueva era
- José Mª Angulo Usategui, Susana Romero, Ignacio Angulo – Introducción a la robótica
- Jerry Kaplan – Abstenerse humanos: guía para la riqueza y el trabajo en la era de la inteligencia artificial
- Mayte Rius – Los dilemas éticos de la inteligencia artificial
- Hubert Dreyfus – Mind over machine
- lvin Toffler – El Shock del Futuro
No hay comentarios:
Publicar un comentario