Brad Smith, presidente de Microsoft: “Debemos tener una manera de ralentizar o apagar la inteligencia artificial” | Tecnología

No se puede negar que Brad Smith es abogado. El presidente de Microsoft navega con extrema cautela cuando habla sobre las turbulentas aguas en las que se encuentra inmersa ahora mismo la inteligencia artificial (IA). Es la tecnología más importante que se ha creado, dice, desde la invención de la imprenta, pero no niega que existen problemas respecto a su uso y control, desde los ciberataques por parte de países como Rusia o Corea del Norte, o la compleja protección de los derechos de autor, hasta lo que es, confiesa, su gran preocupación: el uso de deepfakes para alterar el resultado de las elecciones, en un año en el que prácticamente medio planeta pasará por las urnas. Smith (Milwaukee, EE UU, 65 años) presentó el pasado viernes en la Conferencia de Seguridad de Múnich un acuerdo, junto con otra veintena de compañías, para tratar de mejorar la respuesta tecnológica a estos engaños y la transparencia de las compañías que controlan la IA. “La diferencia entre la promesa y el peligro de la nueva tecnología rara vez ha sido más impactante”, afirma Smith.

El presidente de Microsoft, que es hoy la compañía más valiosa del mundo, se reunió ayer en Madrid con el presidente del Gobierno, Pedro Sánchez, para firmar un acuerdo en materia de uso de la IA que supone la mayor inversión de Microsoft en España en sus 37 años de presencia en el país: 2.100 millones de euros. Es una alianza muy importante, asegura Smith, porque si España “no usa la IA en el gobierno, en la atención médica o en la economía, no veo cómo pueda sostener su crecimiento a largo plazo”.

Pregunta. Le he pedido a Copilot, la IA generativa de Microsoft, que hiciera una pregunta para usted. Me ha sugerido esta: “¿Cuál es su visión sobre el papel de la inteligencia artificial en la sociedad actual y cómo cree que podemos garantizar su desarrollo ético y responsable?”. No sé qué opina de la pregunta, ¿me puede quitar Copilot el trabajo?

Respuesta. No, no. Hay tres preguntas ahí, las dos de Copilot y la suya. Y permítame empezar con la suya, porque creo que es importante. Copilot es un copiloto. No es un piloto. Usted quizá lo ha usado para preparar esta entrevista, pero es una herramienta. Le ayuda, le da ideas, pero, en última instancia, necesitará usar su juicio. Y creo que eso es lo que deberíamos pedir a todas las personas que utilizan esta tecnología: que la usen para ser más creativos, desarrollar ideas, ayudar con la escritura, pero delegar o externalizar tu pensamiento a una máquina sería un error.

Respecto a las otras dos preguntas, hoy y mañana [por ayer y hoy] anunciamos nuevas iniciativas con el Gobierno español en torno a la ciberseguridad y la IA responsable. ¿Por qué importa eso? Al final del año pasado, España ocupaba el cuarto lugar en Europa en el uso per capita del PIB de la IA. Pero cuando se observan las habilidades de IA, está en el puesto 14. Y en la creación de software basado en IA, está en el 15. Esto muestra que hay una brecha entre el uso de la IA y las habilidades para crear IA. España es un lugar increíble para vivir. Es un país muy próspero en muchos aspectos, pero no está creciendo rápidamente. La población está envejeciendo. La tasa de desempleo es del 11%. Y esos desafíos necesitan ser abordados con creatividad y urgencia. Parte de la solución es el uso de la IA. Hay que crear los empleos del futuro.

P. Estamos fascinados y asustados con la revolución de la IA. Usted lleva muchos años, más de 30, trabajando en esta industria. ¿Es realmente tan revolucionaria una tecnología?

R. Creo que la inteligencia artificial es el invento más importante para la mente humana desde la invención de la imprenta. Y eso fue hace casi 600 años. Piense en la imprenta y en lo que consiguió: hizo posible que las personas escribieran, que otras leyeran y que las economías de mercado florecieran. Con la inteligencia artificial pasa algo muy similar, ya que es una herramienta que puede ayudar a idear de otra manera. A usted quizá le ayudó a pensar en preguntas para una conversación, y eso es una inyección de creatividad. Es enormemente valioso para encontrar patrones en grandes cantidades de datos, para ofrecer ideas que les permitan avanzar en cuestiones como el descubrimiento de medicamentos. Si lo usamos bien, puede ser un acelerador para las personas y lo que hacen.

P. Sin embargo, el FMI alerta de que la inteligencia artificial afectará al 60% de los empleos en las economías avanzadas y, por primera vez, impactará en los más cualificados…

R. Este un problema muy importante que debemos abordar, pero primero lo pondría en contexto. ¿Qué porcentaje de trabajos han sido impactados por el advenimiento de la tecnología digital, el ordenador personal o el móvil en los últimos 40 años? Probablemente, sea un porcentaje aún mayor. Y aun así, hemos estado adaptándonos a este cambio durante casi toda la vida laboral de todos los que estamos trabajando hoy en día. Muchos de estos empleos se han visto afectados y algunos desaparecieron. La verdadera lección de los últimos 40 años es que si las personas pueden mantenerse a la vanguardia en el conocimiento de cómo usar la tecnología, es probable que tengan éxito en sus carreras. Sus trabajos pueden llevarles a lugares que no necesariamente anticiparon. Va a haber un impacto real en la forma en que trabajamos, sí. Y esto debería inspirarnos y, también, alertarnos de la urgencia de aprender a usar esta tecnología y mejorar en lo que sea que queramos hacer.

P. Ha mencionado usted la creación, y este es uno de los aspectos más afectados por la IA. Su compañía ha sido demandada por The New York Times por infracción de derechos de autor…

R. Creo que este es un aspecto natural e inevitable de una nueva tecnología que impacta en cómo las personas crean y distribuyen lo que escriben. Hay dos preguntas legales a las que vamos a enfrentarnos. Una es relativamente fácil y la otra es más compleja. La fácil es preguntarse qué haces si un sistema de inteligencia artificial genera un resultado que copia algo que está protegido. Eso es una violación de la ley, no hay duda al respecto. Y hemos hecho dos cosas para abordar esto. Primero, construimos una arquitectura completa alrededor de Copilot y otras herramientas [Copilot cita las fuentes en sus respuestas, a diferencia de otras IA generativas]. Y segundo, le hemos dicho a todos nuestros clientes que este es nuestro problema legal, no el suyo. Si utilizan nuestro sistema correctamente, nosotros somos los responsables, no ellos.

Y luego hay otra pregunta, más incierta. ¿Se puede entrenar en IA leyendo todas las obras del mundo? Siempre se ha entendido que puedes leer todo lo que quieras y recordar todo lo que puedas. Me reuní con un funcionario del Gobierno en Alemania la semana pasada que dijo que había leído, según su estimación, alrededor de 5.000 libros en su vida. Cuando da un discurso, no tiene que retroceder y preguntar, ¿dónde leí esto? ¿Tengo que dar crédito a dónde saqué esta idea por primera vez? Todos tenemos el derecho, bajo la ley de derechos de autor, de leer y aprender. La cuestión es si podemos permitir que las máquinas aprendan de la misma manera. Y creo que hay un imperativo social para hacer que eso sea posible. Avanzar en las capacidades de esta nueva tecnología requerirá que pueda aprender ampliamente. Y más que eso: si realmente quieres abrir esta nueva industria a desarrolladores de código abierto y a académicos, más allá de las grandes empresas, es fundamental que esté abierto a ese tipo de aprendizaje. Al mismo tiempo, ninguno de nosotros debería querer que esta nueva tecnología deje fuera del negocio a los creadores, entre ellos los periódicos como The New York Times. Creo que tendremos que encontrar una manera de equilibrar ese aprendizaje con brindar a los creadores la capacidad de seguir ganando un buen sustento.

P. ¿Es posible que lleguen a un acuerdo, no solo con The New York Times, sino con otros creadores y autores?

R. Hay tres objetivos que debemos tener en cuenta. Objetivo número uno: garantizar que la tecnología pueda avanzar y compensar a los creadores de hoy y del futuro. El número dos es asegurarnos de que esto avance de tal forma que haga que este contenido esté disponible de manera amplia y en términos económicamente asequibles para todos. Y el objetivo tres es pensar en el impacto para las empresas que también controlan gran parte del contenido. The New York Times puede parecer un gran propietario pero, en comparación con YouTube, es minúsculo. Tenemos que pensar en otros lugares donde existen estos repositorios de contenido, y tenemos que asegurarnos de que estén abiertos, en términos asequibles para todos y no solo para la única empresa que los posee, con el fin de desarrollar su propio modelo.

P. La UE se ha convertido en el primer lugar del mundo donde se regula la IA. ¿Qué opina de esta ley?

R. Necesitamos un nivel de regulación que garantice la seguridad. A veces me sorprende cuando observo a personas en el sector tecnológico que dicen que no deberíamos tener esa regulación. Cuando compramos un cartón de leche en el supermercado no nos preocupamos de si es seguro beberlo, porque sabemos que hay una base de seguridad que lo garantiza. Si esta es, como creo que es, la tecnología más avanzada del planeta, no creo que sea irracional pedir que tenga al menos tanta regulación de seguridad como la que tenemos para un cartón de leche. Respecto a la ley [europea] de IA, la buena noticia es que se cree esa protección. La ley de IA hace esto; examina los estándares de seguridad e impone una base para estos modelos. Y no es muy diferente de lo que está haciendo el Reino Unido o Estados Unidos.

Brad Smith, durante su conversación con EL PAÍS.Claudio Álvarez

También creo que tenemos que tener cuidado. Necesitamos tener seguridad sin crear un nivel de administración onerosa que aumentaría los costes, especialmente para las startups. Las empresas a las que he escuchado expresar más preocupación sobre la ley de IA no son las más grandes. Nosotros, francamente, tenemos la infraestructura para cumplirla. Son las startups las que quizá no puedan. No digo esto para criticar la ley de IA, pero es lo que escucho, sobre todo en países como Alemania o Francia. Todo va a depender de la implementación.

P. Usted ha defendido en el Senado de EE UU un “freno de seguridad” para la IA. ¿En qué consiste?

R. Se trata de abordar lo que la gente a menudo describe como una amenaza existencial para la humanidad; esa IA descontrolada que buscaría extinguir a los humanos. Es lo que vemos en Terminator y otra cincuentena de películas de ciencia ficción. Una de las cosas que me llama la atención, después de 30 años en esta industria, es que, a menudo, la vida imita al arte. Es sorprendente que haya 50 películas con el mismo argumento: una máquina que puede pensar por sí misma decide esclavizar o extinguir a la humanidad, y la humanidad lucha y gana apagando la máquina. ¿Qué nos dice eso? Que tenemos que tener una forma de ralentizar o apagar la IA, especialmente si está controlando un sistema automatizado de una infraestructura crítica.

Hace nueve meses que presenté este concepto por primera vez, y lo que me resulta más llamativo es que, dondequiera que vaya, la conversación es más o menos la misma. Comienza con esta preocupación: “Dios mío, hay este riesgo existencial”. Y luego la gente dice: “Eso está a décadas de distancia, no tenemos que concentrarnos en ello ahora”. Tenemos la capacidad de resolver más de un problema a la vez. Resolvamos los de hoy y los de mañana: el mejor momento para afrontar un problema es antes de que ocurra. Sabemos cómo hacerlo: cada autobús y cada tren tiene un freno de emergencia.

P. Microsoft y OpenIA acaban de publicar un informe sobre cómo China, Rusia, Corea del Norte e Irán están usando la IA para ciberataques cada vez más sofisticados. ¿Qué se puede hacer para evitarlo?

R. Primero, necesitamos reconocer el problema. En este estudio, Microsoft y OpenAI [participada por Microsoft] descubrieron que estos cuatro Estados estaban utilizando IA generativa en operaciones de ciberseguridad e influencia cibernética. No vamos a permitir que actores estatales se involucren en este tipo de conducta perjudicial con el uso de nuestras aplicaciones, porque consideramos que eso, probablemente, hará daño al mundo. Pero, además, necesitamos usar la IA para contraatacar y generar una protección de ciberseguridad más fuerte.

P. El viernes anunció un acuerdo para luchar contra los deepfakes [archivos de vídeo, imagen o voz manipulados] en los procesos electorales. ¿En qué consiste?

R. Este acuerdo es muy importante. En primer lugar, porque el problema lo es. Va a haber elecciones este año en más de 65 países y en toda la Unión Europea. Y estamos observando un rápido uso de los deepfakes para intentar engañar al público sobre, por ejemplo, lo que un candidato ha dicho. Con este acuerdo tecnológico nos enfocamos en tres cosas. Una es proteger mejor la autenticidad del contenido con credenciales y marcas de agua. En segundo lugar, detectar deepfakes y eliminarlos si quieren engañar al público. Y, tercero, debemos enfocarnos en la educación ciudadana. Y esto es una prioridad enorme para Microsoft. Personalmente, es probable que yo haya pasado más tiempo entre finales del año pasado y el viernes en este único problema que en cualquier otra cosa, porque creemos que es fundamental afrontar este asunto.

Esto importa mucho porque afecta a procesos electorales pero, desafortunadamente, afecta a otros problemas también, como el fraude financiero y el acoso cibernético, especialmente a niños y mujeres. Esos dos grupos son especialmente vulnerables. Y deberemos hacerlo bien, porque si no el mundo será peor en lugar de mejor por esta tecnología.

P. Pero la misma industria que firma acuerdos como este pone a disposición de todo el mundo tecnologías que provocan estos problemas. OpenIA presentó el jueves su IA de vídeos, Sora, donde los vídeos generados por IA son casi indistinguibles de la realidad…

R. Cuanto más poderosa se vuelve una tecnología, más fuertes tienen que ser las salvaguardias y controles que la acompañen. Creo que todos vamos a tener que esforzarnos más. Y la industria probablemente se beneficiará si también está presionada por el Gobierno y la sociedad civil, porque la magnitud de la responsabilidad y el impacto potencial son muy altos. Después del Compromiso de Christchurch [un acuerdo de empresas y gobiernos para eliminar contenido violento y extremista de internet tras la matanza del mismo nombre que se produjo en 15 de marzo de 2019 en Nueva Zelanda], todos tuvimos que adaptarnos. Y creo que vamos a necesitar adaptarnos de nuevo. Lo que espero es que recordemos que se necesitó un tiroteo masivo transmitido por internet para abrir los ojos a la gente sobre lo que podría salir mal. Estoy animado por el acuerdo del viernes, pero vamos a tener que ir aún más rápido. Y lo más importante: vamos a tener que reunir a más gente. El mayor error que podría cometer el sector tecnológico es pensar que ya está haciendo lo suficiente y que puede hacer lo que necesita si se le deja solo.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites

_

By Yenny Paredes

You May Also Like