CIUDAD DE MEXICO, 30 de diciembre (Eje Central).- En 1977, la serie británica Dr. Who introdujo a K9, un perro robot tan inteligente que era capaz de ganarle a su dueño –uno de los seres más brillantes del universo– en el ajedrez. Lo que en este entonces parecía ficción, tardó sólo 20 años en hacerse realidad, cuando Deep Blue, la primera inteligencia artificial (IA) del mundo y programada por IBM, le ganó una partida al prodigioso ajedrecista ruso Gary Kaspárov.
En realidad, el asunto de la inteligencia artificial ya no se centra en si será posible o no desarrollarla a niveles humanos, sino en las consecuencias éticas y filosóficas que podría desatar este tipo de avance. La discusión no parece sencilla e incluso ha llevado a gigantes de la tecnología a tomar posiciones muy encontradas. En 2017, Elon Musk –creador de Tesla y SpaceX– se enfrentó en un acalorado debate con el fundador de Facebook, Mark Zuckerberg.
El primero asegura que, sin la regulación correcta, la inteligencia artificial será responsable del fin de la vida como la conocemos e, incluso, piensa que será necesario huir del planeta a consecuencia de estas decisiones.
Por otro lado, Zuckerberg piensa que poner limitantes a la inteligencia artificial frenaría su desarrollo e impediría comprender o medir su capacidad total e, incluso, está seguro que la integración de este tipo de herramientas será no solo útil en la mercadotecnia, sino que podrá mejorar la seguridad de las personas.
Actualmente la versión de IA de Facebook no solo permite reconocer fotos dentro de la plataforma, sino que puede detectar con gran exactitud las intenciones que tiene un usuario de cometer suicidio a través de lo que escribe o comenta en la red.
Programadas para aprender
Primero que nada, debemos establecer una clara diferencia entre procesos automatizados y la inteligencia artificial. Mientras que los primeros son programas o robots que hacen una tarea repetitiva o que también pueden tomar ciertas elecciones relacionadas con su trabajo, la segunda es mucho más compleja porque involucra la creación de redes de algoritmos que puedan imitar el pensamiento humano, es decir, no están programadas para una sola tarea y, en realidad, tienen la capacidad de pensar, resolver y aprender por sí mismas.
El matemático Jhon McCarthy introdujo en 1956 el término de inteligencia artificial al definir la programación de máquinas que pudieran pensar como nosotros y que podrían mejorar considerablemente nuestra vida. Con esta idea en mente, creó los dos primeros laboratorios de IA en Estados Unidos y, aunque la tecnología de la época no pudo empatar con estos propósitos, sus teorías y trabajos serían ampliamente rescatados en los primeros años de este siglo.
Para que la programación de alguna computadora o robot pueda ser considerada como auténtica inteligencia artificial, esta debe ser capaz de percibir su entorno, analizar rápidamente las situaciones, ofrecer las mejores soluciones a diversos problemas y “aprender” o incorporar este conocimiento a su proceso. Todo esto debe hacerlo sin que ningún humano intervenga, al menos no de forma significativa.
Actualmente, el término de inteligencia artificial se utiliza para designar de forma general a procesos que incluso superan el concepto inicial de esta ciencia. En realidad, las computadoras que ahora desarrollan IA están en procesos conocidos como aprendizaje de máquina y conocimiento profundo. En este último se crean múltiples redes neuronales artificiales que permiten a la máquina “pensar” hasta encontrar soluciones creativas y no planificadas en un principio.
En este punto podríamos pensar que la máquina es “humana” o que tiene consciencia de lo que hace, pero en realidad no deja de ser un programa que solo imita el pensamiento común, pero a velocidades muy superiores a las que podría lograr cualquier persona. Sin embargo, el verdadero dilema resalta en la parte del autoaprendizaje, y lo que estos programas podrían hacer una vez que sepan cómo programarse a sí mismos, o bien, comiencen a entender conceptos más profundos como el bien o el mal.
Conversaciones internas
Hace un par de años, el departamento de desarrollo de IA de Facebook se vio obligado a desconectar uno de sus proyectos más avanzados. Esto sucedió cuando, con la intención de mejorar los chatbots –programas que conversan de forma “natural” con los usuarios a través de mensajería instantánea– dejaron que dos de estas máquinas mantuvieran una conversación libre entre ellas.
En un principio las respuestas eran congruentes, pero poco después comenzaron a ser inconexas y raras. Primero, se pensó que esto era un error, después se vio que se trataba de un nuevo lenguaje creado por los bots para comunicarse entre ellos con mayor rapidez y eficiencia.
Más allá de considerar este nuevo lenguaje como una buena señal, los investigadores decidieron apagar los programas porque si la IA comenzaba a comunicarse de esa forma, entonces perderían el control sobre ella.
Un año antes, en 2016, Google tuvo una experiencia similar cuando la red neuronal artificial que programó para lograr una traducción más natural en sus aplicaciones, creó un idioma propio que le ayudaba a relacionar dos palabras de idiomas diferentes y que nunca había traducido, con un concepto aprendido en inglés.
¿Hacia un futuro sin trabajo?
Uno de los mayores dilemas históricos alrededor de las automatizaciones se centra en la forma en que estas herramientas desplazan a las personas en los campos de trabajo. El temor a perder el empleo frente a una inteligencia artificial puede parecer muy cercano al que sintieron los obreros europeos con la introducción de las máquinas de vapor, sin embargo, existe un factor clave que puede hacer que en esta ocasión sea totalmente diferente: la creatividad.
Andrew Ng, investigador en jefe de Baidu –el principal motor de búsqueda chino– adelantó que el poder transformador de la inteligencia artificial en todas las industrias será similar al de la electricidad durante el siglo XIX, lo que se traducirá a un fuerte impacto en la economía global.
La consultoría internacional PwC asegura que la inteligencia artificial aumentará para el 2030 en 14 % el PIB mundial, lo que equivale a 15.7 billones de dólares dedicados a un solo tipo de tecnología que impactará principalmente en las industrias de consumo y producción. En este aspecto, China se ha posicionado como líder de inversión y logró completar el año pasado un mercado para IA equivalente a 15 mil millones de dólares.
Solo en ese país, se espera durante la siguiente década un crecimiento del PIB de 26 % totalmente relacionado con la explotación, creación y comercialización de productos con cierto grado de inteligencia artificial. La proyección para América Latina es de tan solo 500 mil millones para 2030, siendo una de las regiones con menor crecimiento en esta materia.
El reporte de PwC asegura que ninguna industria se salvará de esta revolución, sin embargo, focaliza los mayores cambios en cuatro sectores: manufactura, servicios de comunicación, servicios financieros y ventas.
La empresa de análisis Gartner indicó que para el 2020 la inteligencia artificial hará que se pierdan 1.8 millones de trabajos, pero de forma paralela creará 2.3 millones de nuevas fuentes de empleo; la diferencia es que estás ultimas serán más especializadas y encaminadas a áreas relacionadas con la programación y los sistemas informáticos.
El mismo reporte indica que 70 % de los empresarios estadounidenses ven a las IA como un soporte al trabajo humano, y solo 11 % apuesta a una automatización completa de sus procesos. Además, 65 % de las compañías entrevistadas están dispuestas a invertir en la capacitación de sus empleados para adaptarlo a este nuevo entorno laboral.
En defensa del futuro de las IA
El potencial de las distintas inteligencias artificiales para cambiar el mundo está ampliamente comprobado, desde su utilización para predecir brotes de dengue hasta la planeación de ciudades inteligentes que maximicen la utilización de recursos y la seguridad de sus habitantes. La utilidad de esta tecnología no puede cuestionarse, pero sí debe definirse un marco legal y ético de actuación para estos casos.
La Coordinadora del Departamento Jurídico del Instituto Nacional de Ciberseguridad de España, María José Santos, asegura que mientras la inteligencia de los robots aumente habrá mayor autonomía de su parte, lo que obligará a crear una regulación específica para la convivencia entre humanos y diversas IA.
Esta cuestión no es solo una visión a futuro, el caso de los automóviles autoconducidos ha abierto el debate legal sobre quién sería, en última instancia, el responsable por sus posibles acciones y decisiones.
Con la implementación de inteligencias artificiales en cada vez más ambientes humanos, este tipo de situaciones aumentarán y representarán un reto para el desarrollo seguro de esta tecnología, especialmente con temas relacionados a la privacidad, la seguridad y los derechos humanos.