lunes, 14 de octubre de 2024

POR UNA ÈTICA DE LAS INTELIGENCIAS...

 



"Estamos ahora en plena batalla en la Tierra por liderar la nueva forma de computar. Es decir, queremos saber cuáles son las ventajas de un ordenador cuántico, para qué nos va a servir y en qué sentido, pues, los países que ostenten la computación cuántica, el conocimiento de computación cuántica, van a seguir liderando la tecnología del futuro."

" La inteligencia artificial es cómputo. No hay otra cosa. Es un algoritmo, es cómputo. Entonces, las mejores máquinas nos van a proporcionar la mejor inteligencia artificial. En un futuro seguramente la computación cuántica será el instrumento de cómputo que necesitaremos para lograr la máxima inteligencia artificial posible."

"Vivimos en el siglo XXI, no vivimos en el siglo XII, y uno pertenece a los países donde se define la tecnología, donde se construye la tecnología o donde se compra la tecnología. Los países tienen que decidir si son generadores de conocimiento o son compradores de los resultados del conocimiento. "

"Todo es programable. La inteligencia artificial tiene lo que le queramos poner, no es más que un programa de aprendizaje automatizado. Si uno la modera, será ética. Si uno no la modera, será lo que sea. En ese sentido, hay que ser muy vigilantes, hay que supervisar el aprendizaje de inteligencias artificiales profundas. Hay que establecer los mecanismos de verificación. No solo hay que supervisar cómo se entrena, sino verificar el uso que se hace de esa inteligencia artificial y de ahí que reglamentar, establecer las leyes no sea elemental. Es el momento del derecho, esa es la gran palabra con mayúsculas, Derecho con mayúsculas. Es el momento de establecer el principio, los principios que nos van a gobernar."

"Los humanos hemos abandonado poco a poco ser el centro de todo. Primero hicimos máquinas que eran más fuertes que nosotros y al día de hoy, pues, usamos coches, ascensores, camiones, grúas; ya hemos aceptado que las máquinas nos superan en fuerza, eso ya no es una discusión. Luego hicimos ordenadores que calculaban más rápido. De nuevo, ya no hay contables antiguos y aquellos que iban sumando columnas de números. Nosotros ya utilizamos toda esa tecnología. El problema de la inteligencia artificial es que lo que está en juego ahora son las decisiones. Y de forma inexorable, vamos a lograr educar máquinas para que tomen decisiones supervisadas, sabias, mejores que nosotros."

"El problema está en que, cuando hicimos las máquinas, pues ahora tenemos que pagar dinero en el gimnasio para no ser débiles, que nadie sabe dividir por siete porque tenemos máquinas que dividen muy bien; el problema es que delegar la decisión es un problema ético. Estamos delegando la ética, y ahí es donde hay una insatisfacción, ese peligro latente que vemos venir y que queremos muchos, al menos yo, que sea hecho de forma lenta. Yo creo que uno de los grandes secretos es que la inteligencia artificial no entre tan rápido, entre más despacio. Entonces, hay que delimitar muy bien qué es lo que ya está legislado de lo que necesita ser legislado, y eso no es fácil."

"Cada vez que los humanos hemos logrado algo grande, lo hemos usado primero de todo, para le mal. Cuando el humano descubre el fuego, lo primero que hizo fue quemar a otros humanos, a las aldeas de los demás. Cuando entendimos la energía atómica, la primera aplicación que se hizo fue una bomba atómica. Cuando hemos entendido la biología, se hicieron armas biológicas. Los humanos, por defecto, tenemos un componente tremendamente agresivo y violento por nuestra historia evolutiva de luchar por los recursos, que nos hace salvajes. Luego poquito a poco, va imponiéndose la racionalidad. La racionalidad es lenta. El sentido común llega después, lo domina todo, y es lento. Al día de hoy, nadie opina que el fuego sea el gran problema de los humanos. La energía nuclear, pues, también. No se dice, pero en Francia más de la mitad de su energía viene de la energía nuclear. Estados Unidos también, Suecia también, y así muchos países. Con la inteligencia artificial pasará lo mismo, va a haber aplicaciones horribles. El conocimiento es imparable, crecerá sí o sí en la especie humana. Entonces, el gran problema es legislar a tiempo para que no se haga el mal. Ese es el gran problema que hace falta hacer."

"Hasta la fecha la gran ciencia se hizo en las Universidades. Es decir, el saber era ostentado por los gobiernos de las naciones. En cambio, ahora tenemos esas grandes corporaciones que han invertido muchísimo dinero y que son las que tienen el límite del conocimiento, no las universidades, sino las corporaciones. De ahí que, de nuevo, hay un componente ético al que no nos hemos enfrentado todavía los humanos. Y es que ahora, en la diferencia entre el poder de cálculo de las grandes corporaciones y la del sector público, se va a ir ampliando la distancia."

"Si uste me dice cuál es el mayor problema a corto plazo, es la adecuación de máquinas a humanos, es la desaparición de puestos de trabajo, cómo vamos a gestionar que las decisiones no sean nuestras. Si usted me pregunta a 40 años cuál es el problema mayor de la humanidad, va a ser el envejecimiento. Va a haber una guerra entre jóvenes y viejos. No estamos preparados, nuestra sociedad no está preparada para ser una sociedad profundamente envejecida. Esos no son problemas de izquierdas y derechas, es un problema para la humanidad, como es un problema para la humanidad relacionarnos con las máquinas."

"ÈTICA EN LA INTELIGENCIA ARTIFICIAL" (J. IGNACIO LATORRE, ENTREVISTA DIARIO "PERFIL", 13/10/24)


No hay comentarios:

Publicar un comentario