sábado, 6 de junio de 2020

INTELIGENCIA ARTIFICIAL (EL FUTURO YA ESTÁ AQUÍ)



Un hurra por las nuevas tecnologías, pero, usémoslas con sentido común; la inteligencia artificial puede ser un reto positivo, el peligro está en dotar a las máquinas de la capacidad de pensar autónomamente y que lleguen a rebelarse, poniendo en jaque a la humanidad en su conjunto. Parece un asunto de ciencia ficción, pero, el punto de no retorno podría estar cerca...
(Petrus Rypff)


        
      EL IMPERIO DE LOS ROBOTS (DOCUMENTAL) EUROPEAN SPANISH - RESUMEN


El Big Data aplicado a la inteligencia artificial

   El continuo desarrollo tecnológico que marca nuestros tiempos nos brinda multitud de posibilidades en los distintos ámbitos de nuestra vida. Las tendencias que marcan la actualidad son muy variadas, pero destacan especialmente dos: el Big Data y la inteligencia artificial.

   Por un lado, asistimos a una generación constante de datos que necesitan ser canalizados y analizados. Y, gracias al Big Data, estos datos son transformados en información útil para el desarrollo de diversos sectores y actividades. Uno de los ejemplos que pueden citarse son las Smart Cities, ciudades inteligentes que hacen la vida más fácil al ciudadano gracias a, entre otras cosas, el tratamiento y uso eficiente de los datos.

   Por otro lado, la inteligencia artificial dota de un especial protagonismo a las máquinas. La implementación de robots y máquinas inteligentes ya es una realidad y está presente en campos de lo más variados como la ingeniería, la medicina y la economía, entre muchos otros.

   El potencial de ambas tecnologías es obvio. Pero, ¿qué sucede cuando ambas se combinan? ¿Cómo pueden retroalimentarse el Big Data y la IA? Y, sobre todo, ¿en qué nos beneficiamos las personas de esta simbiosis tecnológica?

   Aunque hace años parecía algo impensable, la inteligencia artificial ha logrado replicar en parte la inteligencia humana en máquinas. No es que los robots se conviertan en sustitutos de las personas, pero sí pueden ayudar a agilizar algunas tareas y procedimientos, con el consiguiente ahorro de tiempo y costes. Pero, ¿cómo lo hacen?

   Precisamente en el modo de trabajo de la IA puede encontrarse la clave de su relación con el Big Data. Y es que la base principal de este tipo de inteligencia son los datos. Sí, la inteligencia artificial se nutre de datos y los emplea para desarrollar algoritmos y para constituir la ‘lógica’ de las máquinas. En definitiva, utiliza los datos para obtener información del entorno e interactuar con él en consecuencia.

Una de las aplicaciones del Big Data al innovador ámbito de la inteligencia artificial que está cobrando más fuerza es el machine learning. ¿En qué consiste esta técnica de la que tanto se está hablando en el sector digital?

   Para resumir el concepto en unas pocas palabras, el machine learning puede definirse como el aprendizaje automático de las máquinas. Es decir, es una disciplina que desarrolla máquinas y robots que son capaces de aprender de su entorno, de generalizar comportamientos a partir de una base de información.

   La idea de estos sistemas que aprenden automáticamente es saber identificar patrones complejos en millones de datos, siendo capaces así de predecir comportamientos futuros. Es un aprendizaje que permite también aprender de los errores para evitarlos en un futuro, haciendo que las máquinas inteligentes mejoren de forma autónoma y sin intervención humana.

   El machine learning no deja de evolucionar gracias al Big Data, que posibilita que las máquinas puedan extraer información útil de los datos. Pero, ¿qué aplicaciones y usos tiene esto para las personas?


1. Empresas digitalizadas

   La obtención de información relevante de los tejidos de datos es algo especialmente valioso para las empresas. Y es que, gracias a esta información, pueden mejorar en tareas clave como la toma de decisiones estratégicas, diferenciándose así de sus competidores. Todo ello por no hablar de los numerosos procesos manuales que pueden informatizar y automatizar o de los múltiples insights que pueden extraer para conocer la productividad de sus equipos y saber cómo mejorarla.


2. Chatbots

   Otra de las tendencias más potentes de la actualidad es el uso de chatbots. Estos programas de inteligencia artificial permiten a los usuarios mantener una conversación con un programa informático. Los objetivos son muy variados y van desde encontrar respuesta a dudas hasta gestionar envíos de productos. El machine learning hace que estos bots aprendan constantemente de su interacción con los usuarios y de los datos que obtienen y son cada vez más usados en las páginas web para mejorar la atención al cliente.


3. Protección

    El lado negativo de la tecnología es que surgen nuevas amenazas que operan en Internet. El usuario digital se enfrenta a la posibilidad de ser el blanco de los hackers, que perpetran ciberataques para robar información o suplantar identidades, entre muchos otros fines. Pero, por fortuna, el machine learning también puede ayudar a reforzar la protección ante estos ataques. Por ejemplo, es utilizado para mejorar los programas antivirus, contribuyendo a un mejor diagnóstico de los sistemas informáticos y aprendiendo de las características de los malawares para combatirlos de forma más efectiva. También es capaz de identificar intrusos en correos electrónicos ante el robo de contraseñas, detectando comportamientos extraños que difieren con el uso que hace del correo su dueño.


4. Recomendaciones

   Por último, otro de los usos más comunes se sitúa en el campo del marketing y el e-commerce. El machine learning estudia día a día el comportamiento de compra de los clientes, pero también el modo de navegación de los internautas en general. Esto posibilita que las empresas y marcas puedan hacer recomendaciones personalizadas de productos y servicios a los usuarios. Se trata de una acción ampliamente efectiva, pues los artículos recomendados se basan en los intereses y necesidades del posible comprador.

                       Chopin: Creando Música con Inteligencia Artificial | T3chFest 2019


                       Frédéric Chopin, Ballade no. 1 g-minor op. 23 (Olga Scheps live)


UN DEBATE ABIERTO

   Ya no hay vuelta atrás: el Big Data y la inteligencia artificial cada vez trabajan más compenetrados. ¿El objetivo? Continuar avanzando en el desarrollo de maquinaria inteligente. Aun así, es cierto que siguen naciendo prejuicios sobre los posibles efectos negativos que los robots pueden causar en el ser humano. Existe cierto miedo a que el trabajo con máquinas inteligentes sustituya al trabajo con personas y, precisamente por eso, es esencial trabajar en crear un ecosistema en el que puedan convivir y complementarse ambos actores, los robots y los seres humanos. ¿Se logrará alcanzar este equilibrio y cerrar el debate? Todo está por ver.
                                  
               ----------------------------------


EL MAYOR RETO PARA LA HUMANIDAD

        ¿De qué es capaz la inteligencia artificial? | DW Documental

   Enero de 2017 en California (EEUU). En el inmaculado centro de conferencias de la ciudad costera de Asilomar, más de un centenar de expertos en inteligencia artificial (IA) de distintos lugares del globo están reunidos bajo una premisa aparentemente sencilla: analizar e indexar de qué forma ésta es beneficiosa para el ser humano. Los profesionales invitados, que cubren áreas diversas, tienen tres días por delante para debatir cómo ha de desarrollarse la IA, podría decirse que en el futuro. Pero éste, más que nunca, es sinónimo de ya, aquí y ahora.

   Porque hay algo en lo que convergen intelectuales divergentes alrededor del mundo: la base sobre la que se asentará la inteligencia artificial, y también lo que supondrá para la humanidad. Lo afirma, por ejemplo, el futurista alemán Gerd Leonhard, autor de un libro cuyo título no deja lugar a dudas: La tecnología contra la humanidad, el choque entre el hombre y la máquina: "Hoy es el momento en que construimos nuestro futuro y este hoy es el mayor reto al que se ha enfrentado el género humano hasta el momento, la posibilidad de una especie de superhombre que se convierte en Dios no tiene precedentes", sostiene.
Gerd Leonhard 1 - BCC Speakers
"No podemos adentrarnos en el futuro con miedo. Debemos ser cautos, pero abiertos al progreso"
 Gerd Leonhard, autor de un libro cuyo título no deja lugar a dudas: La tecnología contra la humanidad, el choque entre el hombre y la máquina

   Leonhard se sitúa en el lado de la trinchera que defiende que la relación que tenemos con la tecnología debe, por lo menos, pensarse. Pero no es un alarmista. "Creo que a veces reaccionamos de forma exagerada ante los posibles peligros, y no podemos adentrarnos en el futuro con miedo. Debemos ser cautos, pero abiertos al progreso", argumenta. Pero es él también quien afirma que "el exponencial desarrollo tecnológico, y su tremendo potencial, es una oportunidad que trae consigo nuevas y tremendas responsabilidades", él quien sostiene que "la avalancha de cambios tecnológicos puede reformar la esencia de la humanidad y también todo aspecto de nuestro planeta", él quien cree que "la tecnología no es lo que buscamos sino cómo lo buscamos".

   Afirmaciones que le sitúan a años luz de, por ejemplo, Natasha Vita-More, una de las líderes del transhumanismo, movimiento que defiende precisamente abrazar la tecnología. Llamémoslo sinergia. O simbiosis. Al igual que Leonhard, esta especialista en la deriva humano-tecnológica cree que 2018 es un año crucial en lo que respecta a la IA. Aunque Vita-More, profesora en la Universidad de Tecnología Avanzada (Arizona, EEUU) y autora del ensayo El lector transhumanista, no cree que exista un debate de extremos entre humanistas (Leonhard sería uno de ellos) y transhumanistas. "No hay polémica porque ambos valoramos la conciencia humana. La única excepción es que nosotros apoyamos la evolución humana y ellos su estancamiento". ¿Cómo saber, en mitad de la carrera tecnológica, smartphone en mano, en qué vértice se encuentra uno? Atendiendo, por ejemplo, a las preguntas que se hacían los expertos aquel fin de semana en California.

Natasha Vita More - Voice and Exit Festival 2018 - YouTube

NatashaVita-More, profesora en la Universidad de Tecnología Avanzada (Arizona, EEUU) y autora del ensayo El lector transhumanista, no cree que exista un debate de extremos entre humanistas (Leonhard sería uno de ellos) y transhumanistas


"¿Cómo crear sistemas de inteligencia artificial potentes que hagan lo que nosotros queremos, sin errores y sin ser hackeados? ¿Cómo conseguir prosperidad a través de la automatización mientras se mantienen los recursos y los objetivos de los seres humanos? ¿Cómo actualizar la legislación de la inteligencia artificial para que sea más eficaz y más justa y tenga en cuenta sus riesgos? ¿Con qué valores debe alinearse la IA y cuál debería ser su estatus legal y ético?".

   Es precisamente el desarrollo legislativo -que respondería a cuestiones éticas- uno de los asuntos que más preocupa ahora a quienes trabajan -piensan- la inteligencia artificial; signo de que éste es el momento histórico en el que verdaderamente los humanos ponemos a prueba nuestra esencia como tal. "La tecnología no tiene ética, pero la humanidad depende de ella", apunta Leonhard. "Sí", disiente Vita-More, "la tecnología sí tiene ética, es un producto, pero también un paso evolutivo o un proceso que permite repensarlo todo".

Mady Delvaux-Stehres - Wikipedia
"Tenía la esperanza de que, por una vez, el marco legal y político estuviera preparado. Pero la tecnología evoluciona muy rápido"(Mady Delvaux)

   En ello está, también, la UE. Unas semanas después del encuentro californiano, el 27 de enero de 2017, tres eurodiputados presentaban a la Comisión Europea una serie de "recomendaciones sobre normas de Derecho civil sobre robótica". Éstas incluyen afirmaciones como que "existe la posibilidad de que, a largo plazo, la inteligencia artificial llegue a superar la capacidad intelectual", que "el potencial de empoderamiento que encierra el recurso a la robótica se ve matizado por una serie de tensiones o posibles riesgos y que debe ser evaluado detenidamente a la luz de la seguridad y la salud humanas; la libertad, la integridad y la dignidad, la autodeterminación y la no discriminación, y la protección de datos personales".

   La ponente principal, la socialista luxemburguesa Mady Delvaux, Georg Meyer, de la Comisión de transportes y turismo, y Michal Boni, de la Comisión de libertades civiles, justicia y asuntos de interior pedían a la Comisión "que estudie la posibilidad de designar a una agencia europea para la robótica y la inteligencia artificial que proporcione los conocimientos técnicos, éticos y normativos necesarios para apoyar la labor de los actores públicos pertinentes (...) de garantizar una respuesta rápida, ética y fundada ante las nuevas oportunidades y retos -sobre todo de carácter fronterizo- que plantea el desarrollo tecnológico de la robótica".

 
Simulación de un sistema de reconocimiento de personas con inteligencia artificial. | Foto: Reuters

   ¿Llega tarde la propuesta o justo a tiempo? Dice Delvaux, en correspondencia electrónica con EL MUNDO, que "hace cuatro años, cuando se puso en marcha el grupo de trabajo en el Parlamento Europeo, pensaban que el futuro era lejano". "Tenía la esperanza de que, por una vez, el marco legal y político estuviera preparado para semejante transición. Pero la tecnología evoluciona muy rápido y me temo que nosotros somos lentos. Por ejemplo, los coches autónomos: creíamos que estarían listo en décadas y ya están disponibles en el mercado, aunque no a gran escala; los productos están testándose, los procesos legislativos nacionales también... es nuestro deber rellenar los huecos legales, manejar los riesgos y asegurar los beneficios de la tecnología", explica.

   Pero hasta el pasado 25 de abril la UE no emitió ningún comunicado al respecto. Y lo dicho entonces es, para Delvaux, "óptimo pero insuficiente". La Comisión Europea propone una serie de medidas para incrementar las inversiones en IA, tanto públicas como privadas, llegando a los 20.000 millones de euros de aquí a 2020. Delvaux no tenía muchas esperanzas de que la UE sacara adelante una agencia especializada en IA y, cuando lo contaba, aún no había sucedido el accidente del coche autónomo de Uber en el que falleció un ciudadano en Tempe, Arizona. Justo donde da clase, en la Universidad de Tecnología Avanzada, la transhumanista Vita-More.
  
   "Es importante garantizar la compensación de las víctimas, incluso cuando la autonomía de los sistemas no permita identificar a la persona responsable del daño. También es esencial adaptar las reglas de protección de datos porque estas tecnologías precisan mucha información y puede haber conflictos con la intimidad. También estoy preocupada por las cuestiones éticas. Propusimos una carta para los desarrolladores e ingenieros en nuestro informe. Los robots y la inteligencia artificial son alucinantes, pero deben permanecer a nuestro servicio y respetar nuestros derechos; son una oportunidad y debemos decidir cómo queremos que ésta conforme nuestro futuro", culmina Delvaux.

   También menciona los accidentes relacionados con coches autónomos Hayden Belfield desde el Centro para el estudio de los riesgos existenciales, un grupo de investigación de la Universidad de Cambridge. Belfield compara, incluso, la inteligencia artificial con dos momentos históricos de máxima trascendencia para el género humano, "la invención del fuego y la energía nuclear". "Debemos ser extremadamente cautelosos. Los riesgos fundamentales son tres: accidentes, malos usos y carreras de armas. Los sistemas de inteligencia artificial en ocasiones funcionan mal. Por ahora, los daños que pueden causar son limitados, aunque ya ha habido accidentes fatales con coches autónomos. Pero a medida que los sistemas se expandan, especialmente en asuntos de seguridad y áreas militares, pueden ocasionar mucho más daño: drones que no funcionan bien, hackeos, propaganda computacional... Cuanto más potente sea la tecnología, más daño puede causar".

Haydn Belfield on Twitter: "I for one welcome our new robot ...
 Hayden Belfield trabaja en el Centro para el estudio de los riesgos existenciales, un grupo de investigación de la Universidad de Cambridge

   Belfield también es contundente acerca de los beneficios que aporta la IA. Al igual que Leonhard y Vita-More, es decir, al igual que humanistas y transhumanistas, destaca la importancia de la inteligencia artificial a la hora de solucionar uno de los problemas que más lejano y cercano parece al mismo tiempo para los seres humanos: "El cambio climático". Pero, sobre todo, y como todos, insiste en la necesidad urgente de colaboración y cooperación. No es casual que 100 expertos se reunieran hace un año en Asilomar para sentar las bases de lo que ya está entre nosotros. La mayor urgencia, sostienen todos los expertos, es que "desarrolladores de inteligencia artificial, legisladores, gobiernos e instituciones trabajen al unísono". "Tenemos que ponernos a trabajar duramente", insiste Belfield, "porque es la única manera de que los beneficios sean grandes".

   Pero hasta el término inteligencia artificial resulta "demasiado amplio y demasiado vago", apunta John C. Havens, director ejecutivo de la asociación norteamericana Iniciativas éticas de los sistemas autónomos e inteligentes, que ofrece información a empresas y particulares. Havens, habitual analista de medios internacionales en relación a la tecnología, destaca también que "los riesgos que trae consigo la IA no son responsabilidad de ésta ni de sus desarrolladores". "Lo que sucede es que internet y el consentimiento de datos evoluciona y, en este momento, ha de cambiar, o la identidad y la capacidad emocional del ser humano variará, y entonces sí que los riesgos serán mayores", prevé.

John C. Havens, Mashable Contributor: Exclusive Speaker with ...
John C. Havens, director ejecutivo de la asociación norteamericana Iniciativas éticas de los sistemas autónomos e inteligentes, que ofrece información a empresas y particulares

   Havens está especialmente preocupado por los datos personales que los humanos cedemos cada vez que, visualícese, damos a aceptar al usar una app. "Los riesgos están allí donde empleamos sistemas de inteligencia artificial. El primero de ellos es cómo se están usando los datos de la gente para crear algoritmos que construyen la inteligencia artificial. Si no firmas los consentimientos, no tienes acceso a los servicios. Las sociedades deberían evolucionar hacia sistemas que incluyan herramientas de control de datos, como sucede en Estonia, donde los ciudadanos tienen acceso a la información de cuándo y cómo se emplean sus datos", propone.

   El éxito de la inteligencia artificial, dice Havens, vendría dado por tres vertientes: "Personas, planeta y beneficios". "Se debe priorizar la equidad de los ciudadanos, el planeta y los beneficios que se obtienen. Poniendo al menos estos tres elementos en la balanza, la humanidad tendrá una oportunidad. De otra manera, sucedería que los humanos no seríamos sostenibles. Las máquinas de inteligencia artificial están destinadas a superarnos en toda habilidad y en todo atributo". Y hay algo en lo que, según Francesca Rossi, responsable de ética de IBM y presente en el encuentro de Asilomar, nos superan ampliamente: "La ausencia de prejuicios". "La clave está en la complementariedad, esto es lo que se debería explotar. Hay que conseguir que las máquinas hagan de nosotros mejores seres humanos", reta.

Francesca Rossi is the IBM AI Ethics... - ACM - Association for ...
Francesca Rossi, responsable de ética de IBM y presente en el encuentro de Asilomar: "La clave está en la complementariedad, esto es lo que se debería explotar. Hay que conseguir que las máquinas hagan de nosotros mejores seres humanos"

   Los objetivos están claros, pero no tanto las consecuencias. Se acuerda Leonhard del filósofo alemán Martin Heidegger y uno de sus conceptos fundamentales, el Dasein o ser ahí (Da, existencia, sein, ahí) y se pregunta: "¿Cuando la inteligencia artificial gobierne la nube y exista un cerebro global, podrá éste comprender el Dasein?". ¿Podrán las máquinas algún día entender lo que significa ser humano? ¿Y cómo debe el género humano relacionarse con las máquinas, los robots, cualquier dispositivo gobernado por una inteligencia artificial? Hasta el momento, las reacciones son desmedidas. Por ejemplo, en octubre del año pasado, durante la feria Arts Electonica Festival, celebrada en Austria, un robot sexual llamado Samantha, creado por una empresa española, Synthea Amatus, tuvo que ser retirado después de que los asistentes a la feria lo destrozaran de tanto usarlo. "Se comportaban con ella como bárbaros. Se agolpaban para sobar sus pechos, piernas y brazos. Le rompieron dos dedos", relató entonces al digital británico Metro el creador de este robot sexual, el barcelonés Sergi Santos.

   Para John Havens, que es uno de los mejores analistas internacionales en lo que a transformación digital se refiere, "cómo respondan los humanos a los sistemas artificiales depende sólo de ellos". "Si creen que un robot o una máquina es real, ésa es su verdad subjetiva. Lo importante es diseñar herramientas que contengan la posibilidad del consentimiento sobre cómo queremos que entren en nuestras vidas. El antropomorfismo, creer que un objeto es algo real, es algo con lo que convivimos desde el inicio de los tiempos". Desde el Instituto para el Futuro de la Vida, fundado por Jaan Tallinn, fundador de Skype, y responsable del encuentro de Asilomar, culmina una de sus integrantes, Ariel Conn: "Desconocemos los límites aún pero sí, hasta ahora, el ser humano ha podido aprender a usar la tecnología, no hay por qué pensar que no lo conseguiremos esta vez".

Controlaremos la inteligencia artificial? | Entrevistas | MG Magazine
Nick Bostrom profesor de Éticas Aplicadas y director del Instituto para el Futuro de la Humanidad en la Universidad de Oxford (Reino Unido)

   Desde su despacho en la Universidad de Oxford (Reino Unido), el profesor de Éticas Aplicadas y director del Instituto para el Futuro de la Humanidad, Nick Bostrom, acostumbra a revolucionar el panorama intelectual de la inteligencia artificial. Asegura en una de sus últimas investigaciones que ésta "se convertirá en una superinteligencia en las próximas décadas o en el próximo siglo". Es decir, cree que ha de desarrollarse -o ya se está desarrollando- "la transición hacia la era de la máquina inteligente".

¿Cuál es la diferencia entre la inteligencia artificial y la superinteligencia artificial?
   La superinteligencia o inteligencia general artificial será capaz de hacer todo aquello que hace el cerebro humano, pero mucho mejor y mucho más rápido. Los actuales sistemas, naturalmente, tienen limitaciones y realmente sólo alcanzan a sustituir la inteligencia humana en áreas estrechamente circunscritas.

Al proceso que nos lleva a la inteligencia artificial general usted lo llama "explosión inteligente". ¿Hemos llegado ya a esa explosión?

   Realmente no. A menos que lo tomemos de forma amplia y digamos que empezó con la invención de la ciencia, de la imprenta o del lenguaje escrito. Pero esto nos haría olvidar lo importante, que frente a nosotros hay algo radical y potencialmente discontinuo que podría dar forma a un futuro en la Tierra donde se originase nueva vida inteligente.

¿Debería organizarse pronto un encuentro global sobre la inteligencia artificial general? ¿Deberían los gobiernos, los legisladores, las universidades y los desarrolladores de IA trabajar juntos?

R. Ya hay diversas conferencias y talleres alrededor del mundo, conversaciones profundas entre las partes interesadas y los expertos. Sin embargo, creo que no es el momento adecuado para ninguna acción reguladora dirigida específicamente a la superinteligencia. Lo que sería útil es comenzar a construir normas en torno a la perspectiva de la superinteligencia y que éstas se aborden de manera cooperativa. Que se desarrolle para toda la Humanidad y al servicio de ideales éticos compartidos, siguiendo el principio de bien común.

¿Puede la inteligencia artificial contribuir a la democracia y a la libertad?
   A corto plazo, puede contribuir al crecimiento económico a través de aplicaciones y en distintos sectores de la economía, y esto puede, indirectamente, fortalecer la sociedad civil. En función de cómo se use, y por quien, el aprendizaje de las máquinas puede o bien mejorar o bien impedir el desarrollo democrático de distintas maneras. Por ejemplo, permitiendo formas más eficientes de vigilancia masiva.


"DEBEMOS PROTEGER LOS ATRIBUTOS HUMANOS, COMO LOS ERRORES, LOS MISTERIOS Y LAS INEFICIENCIAS"
(GERD LEONHARD)

   Gerd Leonhard se dedicaba a la música. Hasta que ésta, como los libros y el cine, entre otras muchas cosas, se convirtió en algo diferente tras la irrupción de internet. Escribió en 2005 un libro sobre el futuro de la música y, desde entonces, analiza, como conferenciante, lo que la tecnología hace con nosotros, tesis que cristalizan en su reciente ensayo Tecnología versus humanidad, el choque entre el hombre y la máquina.

¿A qué riesgos nos enfrentamos como seres humanos frente a la inteligencia artificial? ¿Cuál es la batalla?

   Hay que distinguir primero entre asistentes inteligentes e inteligencia artificial. En este momento, la mayoría de las aplicaciones que calificamos de inteligencia artificial son sólo asistentes inteligentes que aumentan y sirven a los humanos, como Google Maps, Google Lens, Alexa... Puede que tengan un lenguaje avanzado y capacidad para el reconocimiento de imágenes, basados en aprendizajes profundos, pero claramente no son inteligentes. El coche autónomo tiene una inteligencia bastante menor, pero es poderoso en sus dominios, aunque no pueda comprender a un niño de dos años o jugar al ajedrez.

   Cuando las máquinas tengan añadidas otras piezas inteligentes y se expandan, cuando sean socialmente inteligentes, entiendan las emociones y se conecten unas con otras, entonces, rápidamente serán infinitamente inteligentes, lo que supone un riesgo para los seres humanos. La inteligencia artificial es asombrosa y bastante disruptiva ya, sobre todo en el entorno laboral, pero a medida que nos acerquemos a la inteligencia artificial general (IAG), mayor necesidad tendremos de guías éticas y de seguridad, y de regulaciones similares a los tratados de proliferación nuclear.

¿Cuáles son los límites que el género humano no debería traspasar?

   Debemos mantener a los humanos siempre en control de la situación, entender qué están haciendo las máquinas y controlarlas. No debería tentarnos la posibilidad de ser superhombres instalando tecnología en nosotros, al menos no más allá de ciertos límites, como las gafas de realidad virtual. También debemos proteger los atributos humanos, como los errores, los misterios y las ineficiencias; que no corran el riesgo de verse suprimidos por la tecnología. Se está llegando a los límites cuando es complicado seguir siendo humano, como ha pasado con Facebook, que ya se usa para la manipulación maledicente.

Y las máquinas, ¿deberían adaptarse a los humanos?

  Esto es un asunto ético y una decisión política, no una cuestión tecnológica. Necesitamos definir qué queremos ser y no qué podemos ser. Los beneficios de la inteligencia artificial son muchos: resolver problemas energéticos, de desalinización del agua, alimentarios... La inteligencia artificial hace que todo sea más rápido, más eficiente y más fácil para los humanos, pero, en compensación, las consecuencias o efectos colaterales aumentan.

¿Cómo sobrevivirá entonces el ser humano?

   Sólo si nos ponemos de acuerdo acerca de cómo usar la tecnología para el bien común, y no únicamente para obtener beneficios y crecimiento. La inteligencia artificial, la manipulación del genoma, la nanotecnología y la ingeniería climática son las cuatro áreas de preocupación en las que puede darse una carrera armamentística que podría derivar en una situación insalvable. Es fundamental la colaboración global en todos estos asuntos tecnológicos que avanzan de manera exponencial.

Entonces, ¿éste es el mayor desafío de la Historia?

   Sí, éste es el mayor reto al que se ha enfrentado la humanidad hasta ahora, la posibilidad de convertirse en un superhombre, casi un dios, no tiene precedentes. Es verdad que a veces reaccionamos de manera exagerada a los peligros potenciales. No podemos entrar en el futuro desde el miedo. Debemos ser cautelosos pero abiertos al progreso. Cualquier tecnología poderosa precisa de regulación para hacerla beneficiosa para todo el mundo y, por el momento, ni la inteligencia artificial ni el big data tienen ninguna regulación. Es el momento de ponernos de acuerdo sobre de qué y cómo debemos protegernos. Tecnología no es lo que buscamos sino cómo buscamos. Si queremos un mejor futuro, democrático y beneficioso, debemos colaborar más entre todos, porque la tecnología no es creadora. No hay apps para conseguir democracia.


"SOMOS HUMANOS EN TRANSICIÓN HACIA EL SIGUIENTE PASO DE LA EVOLUCIÓN"
(NATASHA VITA-MORE)

   Es la presidenta de Humanity+, la organización internacional que defiende que, en su evolución natural, el ser humano ha de converger con la tecnología. Es, además, profesora en la Universidad de Tecnología Avanzada, en Tempe, Arizona (EEUU), donde recientemente un coche autónomo mató accidentalmente a un ciudadano.

¿De qué manera va a dibujar nuestro futuro la inteligencia artificial?

   Se va a convertir en una inteligencia sensible y sapiente, lo que se conoce como inteligencia artificial general (IAG), algo mucho más sofisticado que lo que ahora llamamos inteligencia artificial, o la que ahora usamos. La IAG es una superinteligencia y será capaz de programarse a sí misma. El ser humano ha sido hasta ahora la forma más inteligente que la humanidad ha conocido, así que el reto que hoy se encara es otra forma de inteligencia altamente superior en sus habilidades en comparación con el cerebro humano. Esto es un desafío si su programación no es ética o amable, pero también es una oportunidad porque sin la IAG la humanidad no sobrevivirá. En algún momento seremos aniquilados por una fuerza natural o por nuestra propia falta de inteligencia a la hora de desarrollar una estrategia que resuelva nuestros problemas.

Usted es una de las líderes del movimiento transhumanista. ¿Existe un diálogo fructífero entre ustedes y los humanistas?

   No existe un debate entre humanismo y transhumanismo porque ambos valoramos la conciencia humana. La única excepción es que el transhumanismo apoya el concepto de evolución humana y el humanismo, su estancamiento. El conflicto y el debate existió entre el posmodernismo y el transhumanismo en el reino de lo filosófico. El posmodernismo es antitecnológico y el transhumanismo es protecnológico. Desde mi punto de vista, es necesaria una mayor interacción, entender nuestros prejuicios y aprender que sin el transhumanismo no existe ninguna forma educacional de ayudar a la gente a entender cómo afectará la tecnología a nuestras vidas. Tampoco qué estrategias son las mejores para trabajar con la IAG y otras tecnologías como la nanotecnología, así como para mejorar nuestra situación y resolver muchos de los problemas a los que nos enfrentamos como especie, y a los que se enfrenta también el medio ambiente.

¿Somos ya algo distinto que seres humanos?

  Sí, muchas personas están ya aumentadas, es decir, son algo más que humanos o no tan humanos como nacieron, al menos. Son todos aquellos que llevan prótesis, implantes o trasplantes u otros dispositivos como los teléfonos inteligentes.

¿Son transhumanos?

   Exactamente, humanos en transición hacia el siguiente paso de la evolución, más allá de limitaciones biológicas como enfermedades, envejecimiento y muerte. Aquellos que tienen prótesis en lugar de miembros, prótesis diseñadas gracias a la robótica y a sistemas hápticos (táctiles) son más que humanos. Aquellos que usan lentillas, implantes no biológicos o quienes reciben terapias con células madre, terapias de reemplazo hormonal o están genéticamente modificados son transhumanos. No son cyborgs, son transhumanos.

¿Tiene ética la tecnología?

   Sí porque permite avanzar, porque es un proceso a través del cual repensarlo todo. Me preocupa que los asuntos éticos relacionados con la inteligencia artificial no se estén enseñando en las universidades al nivel que deberían. Cada universidad y cada instituto debería tener cursos en transhumanismo. El transhumanismo es el único movimiento cultural y social que, a día de hoy, entiende las cuestiones que nos rodean al nivel que deben ser entendidas. La lógica detrás de todo esto es que los individuos -científicos, tecnólogos, filósofos, economistas, etc.- son las mismas personas que desarrollan las ideas sobre IA, nanotecnología y ética.

¿En qué puede hacernos mejores la inteligencia artificial?

   Puede ordenar grandes cantidades de datos de forma mucho más objetiva que un ser humano. Esto significa que la IA es un sistema objetivo que reúne la información, la procesa y la categoriza de forma mucho más precisa que un ser humano. En la actualidad nos enfrentamos a sistemas democráticos y gobiernos en los que predominan los prejuicios que surgen de morales individuales y que colocan esa moral por encima de la razón. La moral no es ética. La ética debe ser objetiva y la moral es una creencia personal y éstas ofuscan la razón. Las creencias son necesarias e importantes, pero deben aplicarse después de que la información se haya organizado objetivamente. La IA es mejor que un humano a la hora de reunir datos, luego los humanos pueden discutirlos, discernirlos y debatirlos, para finalmente seleccionar las mejores alternativas, pero no somos buenos a la hora de recopilar información objetivamente.

¿Cómo habría que proceder entonces?


   Lo que resulta crucial para nuestro futuro es que aprendamos a interactuar con las máquinas, ser capaces de emerger y evolucionar con ellas para poder sobrevivir. No se trata de parecerse a las máquinas o actuar como ellas, como los cyborgs, sino de mantener nuestra humanidad y ser aún más humanos como transhumanos. En la actualidad, el ser humano, el homo sapiens, tiene una actitud de lucha o un comportamiento beligerante que causa temor e ira desmedida. Hay que evitar la influencia de este temor sobre nuestro sentido de la lógica y cómo reaccionamos ante lo que nos rodea. Necesitamos más amabilidad. Considere cómo sería el mundo si las personas no se juzgasen las unas a las otras sobre parcialidades infundadas. El mundo sería un lugar mucho mejor si actuáramos más como los perros: amorosos, cariñosos, divertidos, generosos... Es una metáfora simple, pero encierra mucha verdad.

       Límites éticos para la inteligencia artificial | DW Documental



No hay comentarios: