![]() |
Un hurra por las nuevas tecnologías,
pero, usémoslas con sentido común; la inteligencia artificial puede ser un reto
positivo, el peligro está en dotar a las máquinas de la capacidad de pensar
autónomamente y que lleguen a rebelarse, poniendo en jaque a la humanidad en su
conjunto. Parece un asunto de ciencia ficción, pero, el punto de no retorno
podría estar cerca...
(Petrus Rypff) |
EL IMPERIO DE LOS ROBOTS (DOCUMENTAL) EUROPEAN SPANISH - RESUMEN
El Big Data aplicado a la
inteligencia artificial
El continuo desarrollo tecnológico que marca nuestros tiempos nos brinda
multitud de posibilidades en los distintos ámbitos de nuestra vida. Las
tendencias que marcan la actualidad son muy variadas, pero destacan
especialmente dos: el Big Data y la inteligencia artificial.
Por un lado, asistimos a una generación constante de datos que necesitan
ser canalizados y analizados. Y, gracias al Big Data, estos datos son
transformados en información útil para el desarrollo de diversos sectores y
actividades. Uno de los ejemplos que pueden citarse son las Smart Cities,
ciudades inteligentes que hacen la vida más fácil al ciudadano gracias a, entre
otras cosas, el tratamiento y uso eficiente de los datos.
Por otro lado, la inteligencia artificial dota de un especial
protagonismo a las máquinas. La implementación de robots y máquinas
inteligentes ya es una realidad y está presente en campos de lo más variados
como la ingeniería, la medicina y la economía, entre muchos otros.
El potencial de ambas tecnologías es obvio. Pero, ¿qué sucede cuando
ambas se combinan? ¿Cómo pueden retroalimentarse el Big Data y la IA? Y, sobre
todo, ¿en qué nos beneficiamos las personas de esta simbiosis tecnológica?
Aunque hace años parecía algo impensable, la inteligencia artificial ha
logrado replicar en parte la inteligencia humana en máquinas. No es que los
robots se conviertan en sustitutos de las personas, pero sí pueden ayudar a
agilizar algunas tareas y procedimientos, con el consiguiente ahorro de tiempo
y costes. Pero, ¿cómo lo hacen?
Precisamente en el modo de trabajo de la IA puede encontrarse la clave
de su relación con el Big Data. Y es que la base principal de este tipo de
inteligencia son los datos. Sí, la inteligencia artificial se nutre de datos y
los emplea para desarrollar algoritmos y para constituir la ‘lógica’ de las
máquinas. En definitiva, utiliza los datos para obtener información del entorno
e interactuar con él en consecuencia.
Una de las aplicaciones del Big Data
al innovador ámbito de la inteligencia artificial que está cobrando más fuerza
es el machine learning. ¿En qué consiste esta técnica de la que tanto se
está hablando en el sector digital?
Para resumir el concepto en unas pocas palabras, el machine learning
puede definirse como el aprendizaje
automático de las máquinas. Es decir, es una disciplina que desarrolla
máquinas y robots que son capaces de aprender de su entorno, de generalizar
comportamientos a partir de una base de información.
La idea de estos sistemas que aprenden automáticamente es saber
identificar patrones complejos en millones de datos, siendo capaces así de
predecir comportamientos futuros. Es un aprendizaje que permite también
aprender de los errores para evitarlos en un futuro, haciendo que las máquinas
inteligentes mejoren de forma autónoma y sin intervención humana.
El machine learning no deja de
evolucionar gracias al Big Data, que posibilita que las máquinas puedan extraer
información útil de los datos. Pero, ¿qué aplicaciones y usos tiene esto para
las personas?
1. Empresas digitalizadas
La obtención de información relevante de los tejidos de datos es algo especialmente valioso para las empresas. Y es que, gracias a esta información, pueden mejorar en tareas clave como la toma de decisiones estratégicas, diferenciándose así de sus competidores. Todo ello por no hablar de los numerosos procesos manuales que pueden informatizar y automatizar o de los múltiples insights que pueden extraer para conocer la productividad de sus equipos y saber cómo mejorarla. 2. Chatbots
Otra de las tendencias más potentes
de la actualidad es el uso de chatbots. Estos programas de inteligencia
artificial permiten a los usuarios mantener una conversación con un programa
informático. Los objetivos son muy variados y van desde encontrar respuesta a
dudas hasta gestionar envíos de productos. El machine learning hace que estos
bots aprendan constantemente de su interacción con los usuarios y de los datos
que obtienen y son cada vez más usados en las páginas web para mejorar la
atención al cliente.
3. Protección El lado negativo de la tecnología es que surgen nuevas amenazas que operan en Internet. El usuario digital se enfrenta a la posibilidad de ser el blanco de los hackers, que perpetran ciberataques para robar información o suplantar identidades, entre muchos otros fines. Pero, por fortuna, el machine learning también puede ayudar a reforzar la protección ante estos ataques. Por ejemplo, es utilizado para mejorar los programas antivirus, contribuyendo a un mejor diagnóstico de los sistemas informáticos y aprendiendo de las características de los malawares para combatirlos de forma más efectiva. También es capaz de identificar intrusos en correos electrónicos ante el robo de contraseñas, detectando comportamientos extraños que difieren con el uso que hace del correo su dueño. 4. Recomendaciones Por último, otro de los usos más comunes se sitúa en el campo del marketing y el e-commerce. El machine learning estudia día a día el comportamiento de compra de los clientes, pero también el modo de navegación de los internautas en general. Esto posibilita que las empresas y marcas puedan hacer recomendaciones personalizadas de productos y servicios a los usuarios. Se trata de una acción ampliamente efectiva, pues los artículos recomendados se basan en los intereses y necesidades del posible comprador. UN DEBATE ABIERTO
Ya no hay vuelta atrás: el Big Data y
la inteligencia artificial cada vez trabajan más compenetrados. ¿El objetivo?
Continuar avanzando en el desarrollo de maquinaria inteligente. Aun así, es
cierto que siguen naciendo prejuicios sobre los posibles efectos negativos que
los robots pueden causar en el ser humano. Existe cierto miedo a que el trabajo
con máquinas inteligentes sustituya al trabajo con personas y, precisamente por
eso, es esencial trabajar en crear un ecosistema en el que puedan convivir y
complementarse ambos actores, los robots y los seres humanos. ¿Se logrará
alcanzar este equilibrio y cerrar el debate? Todo está por ver.
----------------------------------
EL MAYOR RETO PARA LA HUMANIDAD
¿De qué es capaz la inteligencia artificial? | DW Documental
|
Enero de 2017 en California (EEUU). En el inmaculado centro de
conferencias de la ciudad costera de Asilomar, más de un centenar de expertos
en inteligencia artificial (IA) de distintos lugares del globo están reunidos
bajo una premisa aparentemente sencilla: analizar e indexar de qué forma ésta
es beneficiosa para el ser humano. Los profesionales invitados, que cubren áreas
diversas, tienen tres días por delante para debatir cómo ha de desarrollarse la
IA, podría decirse que en el futuro. Pero éste, más que nunca, es sinónimo de
ya, aquí y ahora.
Porque hay algo en lo que convergen intelectuales divergentes alrededor
del mundo: la base sobre la que se asentará la inteligencia artificial, y
también lo que supondrá para la humanidad. Lo afirma, por ejemplo, el futurista
alemán Gerd Leonhard, autor de un libro cuyo
título no deja lugar a dudas: La tecnología contra la humanidad, el choque
entre el hombre y la máquina: "Hoy
es el momento en que construimos nuestro futuro y este hoy es el mayor reto al
que se ha enfrentado el género humano hasta el momento, la posibilidad de una
especie de superhombre que se convierte en Dios no tiene precedentes",
sostiene.
![]() |
"No podemos adentrarnos en el futuro con miedo. Debemos ser cautos, pero abiertos al progreso" |
Gerd Leonhard, autor de un libro cuyo título no deja lugar a dudas: La tecnología contra la humanidad, el choque entre el hombre y la máquina
Leonhard se sitúa en el lado de la trinchera que defiende que la
relación que tenemos con la tecnología debe, por lo menos, pensarse. Pero no es
un alarmista. "Creo que a veces
reaccionamos de forma exagerada ante los posibles peligros, y no podemos adentrarnos
en el futuro con miedo. Debemos ser cautos, pero abiertos al progreso",
argumenta. Pero es él también quien afirma que "el exponencial desarrollo tecnológico, y su tremendo potencial, es una
oportunidad que trae consigo nuevas y tremendas responsabilidades", él
quien sostiene que "la avalancha de cambios tecnológicos puede reformar la
esencia de la humanidad y también todo aspecto de nuestro planeta", él
quien cree que "la tecnología no es lo que buscamos sino cómo lo
buscamos".
Afirmaciones que le sitúan a años luz
de, por ejemplo, Natasha Vita-More,
una de las líderes del transhumanismo, movimiento que defiende
precisamente abrazar la tecnología. Llamémoslo sinergia. O simbiosis. Al igual
que Leonhard, esta especialista en la deriva humano-tecnológica cree que 2018
es un año crucial en lo que respecta a la IA. Aunque Vita-More, profesora en la
Universidad de Tecnología Avanzada (Arizona, EEUU) y autora del ensayo El
lector transhumanista, no cree que exista un debate de extremos entre
humanistas (Leonhard sería uno de ellos) y transhumanistas. "No hay polémica porque ambos valoramos la
conciencia humana. La única excepción es que nosotros apoyamos la evolución
humana y ellos su estancamiento". ¿Cómo saber, en mitad de la carrera
tecnológica, smartphone en mano, en qué vértice se encuentra uno? Atendiendo,
por ejemplo, a las preguntas que se hacían los expertos aquel fin de semana en
California.
![]() |
NatashaVita-More, profesora en la Universidad de Tecnología Avanzada (Arizona, EEUU) y autora del ensayo El lector transhumanista, no cree que exista un debate de extremos entre humanistas (Leonhard sería uno de ellos) y transhumanistas |
"¿Cómo crear sistemas de inteligencia artificial
potentes que hagan lo que nosotros queremos, sin errores y sin ser hackeados?
¿Cómo conseguir prosperidad a través de la automatización mientras se mantienen
los recursos y los objetivos de los seres humanos? ¿Cómo actualizar la
legislación de la inteligencia artificial para que sea más eficaz y más justa y
tenga en cuenta sus riesgos? ¿Con qué valores debe alinearse la IA y cuál
debería ser su estatus legal y ético?".
Es precisamente el desarrollo legislativo -que respondería a cuestiones
éticas- uno de los asuntos que más preocupa ahora a quienes trabajan -piensan-
la inteligencia artificial; signo de que éste es el momento histórico en el que
verdaderamente los humanos ponemos a prueba nuestra esencia como tal. "La tecnología no tiene ética, pero la
humanidad depende de ella", apunta Leonhard. "Sí", disiente
Vita-More, "la tecnología sí tiene
ética, es un producto, pero también un paso evolutivo o un proceso que permite
repensarlo todo".
![]() |
"Tenía la esperanza de que, por una vez, el marco legal y político estuviera preparado. Pero la tecnología evoluciona muy rápido"(Mady Delvaux) |
En ello está, también, la UE. Unas semanas después del encuentro
californiano, el 27 de enero de 2017, tres eurodiputados presentaban a la
Comisión Europea una serie de "recomendaciones sobre normas de Derecho
civil sobre robótica". Éstas incluyen afirmaciones como que
"existe la posibilidad de que, a largo plazo, la inteligencia artificial
llegue a superar la capacidad intelectual", que "el potencial de
empoderamiento que encierra el recurso a la robótica se ve matizado por una
serie de tensiones o posibles riesgos y que debe ser evaluado detenidamente a
la luz de la seguridad y la salud humanas; la libertad, la integridad y la
dignidad, la autodeterminación y la no discriminación, y la protección de datos
personales".
La ponente principal, la socialista luxemburguesa Mady Delvaux, Georg
Meyer, de la Comisión de transportes y turismo, y Michal Boni, de la
Comisión de libertades civiles, justicia y asuntos de interior pedían a la Comisión
"que estudie la posibilidad de designar a una agencia europea para la
robótica y la inteligencia artificial que proporcione los conocimientos
técnicos, éticos y normativos necesarios para apoyar la labor de los actores
públicos pertinentes (...) de garantizar una respuesta rápida, ética y fundada
ante las nuevas oportunidades y retos -sobre todo de carácter fronterizo- que
plantea el desarrollo tecnológico de la robótica".

Simulación de un sistema de
reconocimiento de personas con inteligencia artificial. | Foto: Reuters
¿Llega tarde la propuesta o justo a tiempo? Dice Delvaux, en
correspondencia electrónica con EL MUNDO, que "hace cuatro años, cuando se
puso en marcha el grupo de trabajo en el Parlamento Europeo, pensaban que el
futuro era lejano". "Tenía la esperanza de que, por una vez, el marco
legal y político estuviera preparado para semejante transición. Pero la
tecnología evoluciona muy rápido y me temo que nosotros somos lentos. Por
ejemplo, los coches autónomos: creíamos que estarían listo en décadas y
ya están disponibles en el mercado, aunque no a gran escala; los productos
están testándose, los procesos legislativos nacionales también... es nuestro
deber rellenar los huecos legales, manejar los riesgos y asegurar los
beneficios de la tecnología", explica.
Pero hasta el pasado 25 de abril la UE no emitió ningún comunicado al
respecto. Y lo dicho entonces es, para Delvaux, "óptimo pero
insuficiente". La Comisión Europea propone una serie de medidas para
incrementar las inversiones en IA, tanto públicas como privadas, llegando a los
20.000 millones de euros de aquí a 2020. Delvaux no tenía muchas esperanzas de
que la UE sacara adelante una agencia especializada en IA y, cuando lo contaba,
aún no había sucedido el accidente del coche autónomo de Uber en el que
falleció un ciudadano en Tempe, Arizona. Justo donde da clase, en la
Universidad de Tecnología Avanzada, la transhumanista Vita-More.
"Es importante garantizar la compensación de las víctimas, incluso
cuando la autonomía de los sistemas no permita identificar a la persona
responsable del daño. También es esencial adaptar las reglas de protección de
datos porque estas tecnologías precisan mucha información y puede haber
conflictos con la intimidad. También estoy preocupada por las cuestiones
éticas. Propusimos una carta para los desarrolladores e ingenieros en nuestro
informe. Los robots y la inteligencia
artificial son alucinantes, pero deben permanecer a nuestro servicio y respetar
nuestros derechos; son una oportunidad y debemos decidir cómo queremos que
ésta conforme nuestro futuro", culmina Delvaux.
También menciona los accidentes relacionados con coches autónomos Hayden Belfield desde el Centro para el estudio de los
riesgos existenciales, un grupo de investigación de la Universidad de
Cambridge. Belfield compara, incluso, la inteligencia artificial con dos
momentos históricos de máxima trascendencia para el género humano, "la
invención del fuego y la energía nuclear". "Debemos ser
extremadamente cautelosos. Los riesgos fundamentales son tres: accidentes,
malos usos y carreras de armas. Los sistemas de inteligencia
artificial en ocasiones funcionan mal. Por ahora, los daños que pueden causar
son limitados, aunque ya ha habido accidentes fatales con coches autónomos.
Pero a medida que los sistemas se expandan, especialmente en asuntos de
seguridad y áreas militares, pueden ocasionar mucho más daño: drones que no
funcionan bien, hackeos, propaganda computacional... Cuanto más potente sea la
tecnología, más daño puede causar".

Hayden Belfield trabaja en el Centro para el estudio de los riesgos existenciales, un grupo de investigación de la Universidad de Cambridge
Belfield también es contundente acerca de los beneficios que aporta la
IA. Al igual que Leonhard y Vita-More, es decir, al igual que humanistas y
transhumanistas, destaca la importancia
de la inteligencia artificial a la hora de solucionar uno de los problemas
que más lejano y cercano parece al mismo tiempo para los seres humanos: "El cambio climático". Pero, sobre
todo, y como todos, insiste en la necesidad urgente de colaboración y
cooperación. No es casual que 100 expertos se reunieran hace un año en Asilomar
para sentar las bases de lo que ya está entre nosotros. La mayor urgencia,
sostienen todos los expertos, es que "desarrolladores de inteligencia
artificial, legisladores, gobiernos e instituciones trabajen al unísono".
"Tenemos que ponernos a trabajar duramente", insiste Belfield,
"porque es la única manera de que los beneficios sean grandes".
Pero hasta el término inteligencia artificial resulta "demasiado
amplio y demasiado vago", apunta John C. Havens, director ejecutivo de la asociación
norteamericana Iniciativas éticas de los sistemas autónomos e inteligentes, que
ofrece información a empresas y particulares. Havens, habitual analista de
medios internacionales en relación a la tecnología, destaca también que
"los riesgos que trae consigo la IA no son responsabilidad de ésta ni de
sus desarrolladores". "Lo que
sucede es que internet y el consentimiento de datos evoluciona y, en este
momento, ha de cambiar, o la identidad y la capacidad emocional del ser humano
variará, y entonces sí que los riesgos serán mayores", prevé.
![]() |
John C. Havens, director ejecutivo de la asociación norteamericana Iniciativas éticas de los sistemas autónomos e inteligentes, que ofrece información a empresas y particulares |
Havens está especialmente preocupado por los datos personales que los
humanos cedemos cada vez que, visualícese, damos a aceptar al usar una app.
"Los riesgos están allí donde
empleamos sistemas de inteligencia artificial. El primero de ellos es cómo se
están usando los datos de la gente para crear algoritmos que construyen la
inteligencia artificial. Si no firmas los consentimientos, no tienes acceso a
los servicios. Las sociedades deberían evolucionar hacia sistemas que incluyan
herramientas de control de datos, como sucede en Estonia, donde los ciudadanos
tienen acceso a la información de cuándo y cómo se emplean sus datos",
propone.
El éxito de la inteligencia artificial, dice Havens, vendría dado por
tres vertientes: "Personas, planeta y beneficios". "Se debe priorizar la equidad de los
ciudadanos, el planeta y los beneficios que se obtienen. Poniendo al menos
estos tres elementos en la balanza, la humanidad tendrá una oportunidad. De
otra manera, sucedería que los humanos no seríamos sostenibles. Las máquinas de
inteligencia artificial están destinadas a superarnos en toda habilidad y en
todo atributo". Y hay algo en lo que, según Francesca Rossi, responsable de
ética de IBM y presente en el encuentro de Asilomar, nos superan ampliamente:
"La ausencia de prejuicios". "La clave está en la
complementariedad, esto es lo que se debería explotar. Hay que conseguir que las máquinas hagan de nosotros mejores seres
humanos", reta.
Francesca Rossi, responsable de ética de IBM y presente en el encuentro de Asilomar: "La clave está en la complementariedad, esto es lo que se debería explotar. Hay que conseguir que las máquinas hagan de nosotros mejores seres humanos" |
Los objetivos están claros, pero
no tanto las consecuencias. Se acuerda Leonhard del filósofo alemán Martin
Heidegger y uno de sus conceptos fundamentales, el Dasein o ser ahí (Da,
existencia, sein, ahí) y se pregunta: "¿Cuando la inteligencia artificial
gobierne la nube y exista un cerebro global, podrá éste comprender el
Dasein?". ¿Podrán las máquinas algún
día entender lo que significa ser humano? ¿Y cómo debe el género humano relacionarse con las máquinas, los robots,
cualquier dispositivo gobernado por una inteligencia artificial? Hasta el
momento, las reacciones son desmedidas. Por ejemplo, en octubre del año pasado,
durante la feria Arts Electonica Festival, celebrada en Austria, un robot
sexual llamado Samantha, creado por una empresa española, Synthea
Amatus, tuvo que ser retirado después de que los asistentes a la feria lo
destrozaran de tanto usarlo. "Se comportaban con ella como bárbaros. Se
agolpaban para sobar sus pechos, piernas y brazos. Le rompieron dos
dedos", relató entonces al digital británico Metro el creador de este
robot sexual, el barcelonés Sergi Santos.
Para John Havens, que es uno de los mejores analistas internacionales en
lo que a transformación digital se refiere, "cómo respondan los humanos a
los sistemas artificiales depende sólo de ellos". "Si creen que un
robot o una máquina es real, ésa es su verdad subjetiva. Lo importante es
diseñar herramientas que contengan la posibilidad del consentimiento sobre cómo
queremos que entren en nuestras vidas. El antropomorfismo, creer que un objeto
es algo real, es algo con lo que convivimos desde el inicio de los
tiempos". Desde el Instituto para el Futuro de la Vida, fundado por Jaan
Tallinn, fundador de Skype, y responsable del encuentro de Asilomar, culmina
una de sus integrantes, Ariel Conn: "Desconocemos los límites aún pero sí,
hasta ahora, el ser humano ha podido aprender a usar la tecnología, no hay por
qué pensar que no lo conseguiremos esta vez".
Nick Bostrom profesor de Éticas Aplicadas y director del Instituto para el Futuro de la Humanidad en la Universidad de Oxford (Reino Unido) |
Desde su despacho en la Universidad de Oxford (Reino Unido), el profesor
de Éticas Aplicadas y director del Instituto para el Futuro de la Humanidad, Nick Bostrom,
acostumbra a revolucionar el panorama intelectual de la inteligencia artificial. Asegura en una de sus últimas
investigaciones que ésta "se
convertirá en una superinteligencia en las próximas décadas o en el próximo
siglo". Es decir, cree que ha de desarrollarse -o ya se está desarrollando- "la
transición hacia la era de la máquina inteligente".
¿Cuál es la diferencia entre la
inteligencia artificial y la superinteligencia artificial?
La
superinteligencia o inteligencia general artificial será capaz de hacer todo
aquello que hace el cerebro humano, pero mucho mejor y mucho más rápido. Los actuales sistemas,
naturalmente, tienen limitaciones y realmente sólo alcanzan a sustituir la
inteligencia humana en áreas estrechamente circunscritas.
Al proceso que nos lleva a la
inteligencia artificial general usted lo llama "explosión
inteligente". ¿Hemos llegado ya a esa explosión?
Realmente no. A menos que lo tomemos
de forma amplia y digamos que empezó con la invención de la ciencia, de la
imprenta o del lenguaje escrito. Pero esto nos haría olvidar lo importante, que
frente a nosotros hay algo radical y potencialmente discontinuo que podría dar
forma a un futuro en la Tierra donde se originase nueva vida inteligente.
¿Debería organizarse pronto un
encuentro global sobre la inteligencia artificial general? ¿Deberían los
gobiernos, los legisladores, las universidades y los desarrolladores de IA
trabajar juntos?
R. Ya hay diversas conferencias y
talleres alrededor del mundo, conversaciones profundas entre las partes
interesadas y los expertos. Sin embargo, creo que no es el momento adecuado
para ninguna acción reguladora dirigida específicamente a la superinteligencia.
Lo que sería útil es comenzar a construir
normas en torno a la perspectiva de la superinteligencia y que éstas se
aborden de manera cooperativa. Que se desarrolle
para toda la Humanidad y al servicio de ideales éticos compartidos, siguiendo
el principio de bien común.
¿Puede la inteligencia artificial
contribuir a la democracia y a la libertad?
A corto plazo, puede contribuir al
crecimiento económico a través de aplicaciones y en distintos sectores de la
economía, y esto puede, indirectamente, fortalecer la sociedad civil. En función de cómo se use, y por quien, el
aprendizaje de las máquinas puede o bien mejorar o bien impedir el desarrollo
democrático de distintas maneras. Por ejemplo, permitiendo formas más
eficientes de vigilancia masiva.
"DEBEMOS PROTEGER LOS ATRIBUTOS
HUMANOS, COMO LOS ERRORES, LOS MISTERIOS Y LAS INEFICIENCIAS"
(GERD LEONHARD)
Gerd Leonhard se dedicaba a la música. Hasta que ésta, como los libros y
el cine, entre otras muchas cosas, se convirtió en algo diferente tras la
irrupción de internet. Escribió en 2005 un libro sobre el futuro de la música
y, desde entonces, analiza, como conferenciante, lo que la tecnología hace con
nosotros, tesis que cristalizan en su reciente ensayo Tecnología versus humanidad, el choque entre el hombre y la máquina.
¿A qué riesgos nos
enfrentamos como seres humanos frente a la inteligencia artificial? ¿Cuál es la
batalla?
Hay
que distinguir primero entre asistentes inteligentes e inteligencia artificial.
En este momento, la mayoría de las aplicaciones que calificamos de inteligencia
artificial son sólo asistentes inteligentes que aumentan y sirven a los
humanos, como Google Maps, Google Lens, Alexa... Puede que tengan un lenguaje
avanzado y capacidad para el reconocimiento de imágenes, basados en
aprendizajes profundos, pero claramente no son inteligentes. El coche autónomo
tiene una inteligencia bastante menor, pero es poderoso en sus dominios, aunque
no pueda comprender a un niño de dos años o jugar al ajedrez.
Cuando
las máquinas tengan añadidas otras piezas inteligentes y se expandan, cuando
sean socialmente inteligentes, entiendan las emociones y se conecten unas con
otras, entonces, rápidamente serán infinitamente inteligentes, lo que supone un
riesgo para los seres humanos.
La inteligencia artificial es asombrosa y bastante disruptiva ya, sobre todo en
el entorno laboral, pero a medida que nos
acerquemos a la inteligencia artificial general (IAG), mayor necesidad
tendremos de guías éticas y de seguridad, y de regulaciones similares a los
tratados de proliferación nuclear.
¿Cuáles son los límites
que el género humano no debería traspasar?
Debemos mantener a los humanos siempre
en control de la situación, entender qué están haciendo las máquinas y
controlarlas. No debería tentarnos la posibilidad de ser superhombres
instalando tecnología en nosotros, al menos no más allá de ciertos límites,
como las gafas de realidad virtual. También
debemos proteger los atributos humanos, como los errores, los misterios y las
ineficiencias; que no corran el
riesgo de verse suprimidos por la tecnología. Se está llegando a los límites cuando es complicado seguir siendo
humano, como ha pasado con Facebook, que ya se usa para la manipulación
maledicente.
Y las máquinas, ¿deberían
adaptarse a los humanos?
Esto es un asunto ético y una
decisión política, no una cuestión tecnológica. Necesitamos definir qué queremos ser y no qué podemos ser. Los beneficios de la inteligencia artificial
son muchos: resolver problemas energéticos, de desalinización del agua,
alimentarios... La inteligencia artificial hace que todo sea más rápido, más
eficiente y más fácil para los humanos, pero, en compensación, las consecuencias
o efectos colaterales aumentan.
¿Cómo sobrevivirá
entonces el ser humano?
Sólo si nos ponemos de acuerdo
acerca de cómo usar la tecnología para el bien común, y no únicamente para
obtener beneficios y crecimiento. La inteligencia artificial, la manipulación
del genoma, la nanotecnología y la ingeniería climática son las cuatro áreas de
preocupación en las que puede darse una carrera armamentística que podría
derivar en una situación insalvable. Es
fundamental la colaboración global en todos estos asuntos tecnológicos que
avanzan de manera exponencial.
Entonces, ¿éste es el
mayor desafío de la Historia?
Sí, éste es el mayor reto al que
se ha enfrentado la humanidad hasta ahora, la posibilidad de convertirse en un
superhombre, casi un dios, no tiene precedentes. Es verdad que a veces
reaccionamos de manera exagerada a los peligros potenciales. No podemos entrar en el futuro desde el
miedo. Debemos ser cautelosos pero abiertos al progreso. Cualquier tecnología poderosa precisa de
regulación para hacerla beneficiosa para todo el mundo y, por el momento, ni la
inteligencia artificial ni el big data tienen ninguna regulación. Es el momento de ponernos de acuerdo sobre
de qué y cómo debemos protegernos. Tecnología
no es lo que buscamos sino cómo buscamos. Si queremos un mejor futuro,
democrático y beneficioso, debemos colaborar más entre todos, porque la
tecnología no es creadora. No hay apps para conseguir democracia.
"SOMOS HUMANOS EN TRANSICIÓN
HACIA EL SIGUIENTE PASO DE LA EVOLUCIÓN"
(NATASHA VITA-MORE)
Es la presidenta de Humanity+, la organización internacional que
defiende que, en su evolución natural, el ser humano ha de converger con la
tecnología. Es, además, profesora en la Universidad de Tecnología Avanzada, en
Tempe, Arizona (EEUU), donde recientemente un coche autónomo mató
accidentalmente a un ciudadano.
¿De qué manera va a
dibujar nuestro futuro la inteligencia artificial?
Se va a convertir en una
inteligencia sensible y sapiente, lo que se conoce como inteligencia artificial
general (IAG), algo mucho más sofisticado que lo que ahora llamamos
inteligencia artificial, o la que ahora usamos. La IAG es una superinteligencia
y será capaz de programarse a sí misma. El ser humano ha sido hasta ahora la
forma más inteligente que la humanidad ha conocido, así que el reto que hoy se
encara es otra forma de inteligencia altamente superior en sus habilidades en
comparación con el cerebro humano. Esto
es un desafío si su programación no es ética o amable, pero también es una
oportunidad porque sin la IAG la humanidad no sobrevivirá. En algún momento seremos aniquilados por una
fuerza natural o por nuestra propia falta de inteligencia a la hora de
desarrollar una estrategia que resuelva nuestros problemas.
Usted es una de las
líderes del movimiento transhumanista. ¿Existe un diálogo fructífero entre
ustedes y los humanistas?
No existe un debate entre
humanismo y transhumanismo porque ambos valoramos la conciencia humana. La
única excepción es que el transhumanismo apoya el concepto de evolución humana
y el humanismo, su estancamiento. El conflicto y el debate existió entre el
posmodernismo y el transhumanismo en el reino de lo filosófico. El
posmodernismo es antitecnológico y el transhumanismo es protecnológico. Desde mi punto de vista, es necesaria una
mayor interacción, entender nuestros prejuicios y aprender que sin el
transhumanismo no existe ninguna forma educacional de ayudar a la gente a
entender cómo afectará la tecnología a nuestras vidas. Tampoco qué estrategias son las mejores para trabajar con la IAG y
otras tecnologías como la nanotecnología, así como para mejorar nuestra
situación y resolver muchos de los problemas a los que nos enfrentamos como
especie, y a los que se enfrenta también el medio ambiente.
¿Somos ya algo distinto
que seres humanos?
Sí, muchas personas están ya
aumentadas, es decir, son algo más que humanos o no tan humanos como nacieron,
al menos. Son todos aquellos que llevan prótesis, implantes o trasplantes u
otros dispositivos como los teléfonos inteligentes.
¿Son transhumanos?
Exactamente, humanos en transición
hacia el siguiente paso de la evolución, más allá de limitaciones biológicas
como enfermedades, envejecimiento y muerte. Aquellos que tienen prótesis en
lugar de miembros, prótesis diseñadas gracias a la robótica y a sistemas
hápticos (táctiles) son más que humanos. Aquellos que usan lentillas, implantes
no biológicos o quienes reciben terapias con células madre, terapias de
reemplazo hormonal o están genéticamente modificados son transhumanos. No son
cyborgs, son transhumanos.
¿Tiene ética la
tecnología?
Sí porque permite avanzar, porque
es un proceso a través del cual repensarlo todo. Me preocupa que los asuntos
éticos relacionados con la inteligencia artificial no se estén enseñando en las
universidades al nivel que deberían. Cada universidad y cada instituto debería
tener cursos en transhumanismo. El transhumanismo es el único movimiento
cultural y social que, a día de hoy, entiende las cuestiones que nos rodean al
nivel que deben ser entendidas. La lógica detrás de todo esto es que los
individuos -científicos, tecnólogos, filósofos, economistas, etc.- son las
mismas personas que desarrollan las ideas sobre IA, nanotecnología y ética.
¿En qué puede hacernos
mejores la inteligencia artificial?
Puede ordenar grandes cantidades
de datos de forma mucho más objetiva que un ser humano. Esto significa que la
IA es un sistema objetivo que reúne la información, la procesa y la categoriza
de forma mucho más precisa que un ser humano. En la actualidad nos enfrentamos
a sistemas democráticos y gobiernos en los que predominan los prejuicios que
surgen de morales individuales y que colocan esa moral por encima de la razón.
La moral no es ética. La ética debe ser objetiva y la moral es una creencia
personal y éstas ofuscan la razón. Las creencias son necesarias e importantes,
pero deben aplicarse después de que la información se haya organizado
objetivamente. La IA es mejor que un
humano a la hora de reunir datos, luego los humanos pueden discutirlos,
discernirlos y debatirlos, para finalmente seleccionar las mejores
alternativas, pero no somos buenos a la hora de recopilar información
objetivamente.
¿Cómo habría que proceder
entonces?
Lo que resulta crucial para
nuestro futuro es que aprendamos a interactuar con las máquinas, ser capaces de
emerger y evolucionar con ellas para poder sobrevivir. No se trata de parecerse
a las máquinas o actuar como ellas, como los cyborgs, sino de mantener nuestra
humanidad y ser aún más humanos como transhumanos. En la actualidad, el ser
humano, el homo sapiens, tiene una actitud de lucha o un comportamiento
beligerante que causa temor e ira desmedida. Hay que evitar la influencia de
este temor sobre nuestro sentido de la lógica y cómo reaccionamos ante lo que
nos rodea. Necesitamos más amabilidad. Considere cómo sería el mundo si las
personas no se juzgasen las unas a las otras sobre parcialidades infundadas. El
mundo sería un lugar mucho mejor si actuáramos más como los perros: amorosos,
cariñosos, divertidos, generosos... Es una metáfora simple, pero encierra mucha
verdad.
Límites éticos para la inteligencia artificial | DW Documental
No hay comentarios:
Publicar un comentario