Cuando miras por qué las empresas chinas se instalan en esos países es sólo para burlar las normas de origen. Entonces en lugar de recibir aranceles de productos hechos en China, se hacen en esos otros países y pagan aranceles distintos, pero el dinero igual va a las arcas de empresarios chinos.
La IA ve lo que ve. Y lo que no ve, no lo ve del todo. Basta que te salga un corner case para que deje de ver y se ponga a suponer con base en lo que ve. Te pongo un ejemplo simplificado. Digamos que un coche va en la mañana y solo ve calle, cielo (que determina donde esta el horizonte) y coches. Pero un contenedor blanco se ha volcado en la calle y está atravesado en la pista. El contenedor no parece coche ni calle. Entonces debe ser cielo y pasa a través del contenedor.y se estrella y se muere el conductor.El contenedor es un corner case, altamente improbable, pero está allí. Y son estos corner cases los que hacen que aún no se aprueben los autónomos. Siempre habrá un nuevo corner case en el mundo real, aún en los ambientes más controlados.Y la IA aprende muy lento. Necesita muchos datos para aprender un corner case. ¿Le confiarías tu vida a esa máquina? ¿Era fiable la IA? Pues si, excepto con el corner case, donde ajustó el contenedor y creyó que era cielo. La IA sigue siendo una máquina tonta. Confundes la familiaridad con el riesgo, y la falta de datos con probabilidad cero. Es allí donde la IA es sumamente peligrosa, más peligrosa que un poco fiable humano que no se atreverá a chocar contra el contenedor.
Bajarían siempre que no ocurra un corner case que cause un falso positivo o falso negativo de IA que mate gente. El mundo real tarde o temprano muestra corner cases, y las formas de morir, o peor si sobrevive, a manos de un robot son grotescas. Recuerdo un caso de alguien que fue arrastrado 6 metros por un coche autonomo en California.La razón por la que los humanos causan accidentes es porque juegan minijuegos al volante en lugar de pensar en ir de A a B. Si dejan de jugar, son mejores que la IA.
LA IA puede ser muy útil, pues usa estadistica y cálculo. Cualquier buen uso de esos dos es para maravillarse. Pero hoy no están tratando de lograr eso. Hoy es igual que en la burbuja del puntocom. Nadie niega que tener un sitio web puede ser bueno. Pero la manera en que inflaron las acciones solo por tener página web era excesivo. Tener sitio web no es fantastico si lo que tienes es un brochure online sin tráfico. Hoy la IA no está siendo aprovechada en esas áreas que te pueden maravillar, y todo es culpa del hype de ChatGPT que crea expectativas falsas. La IA tiene limitaciones, las que da la estadística y el cálculo, o la que da un martillo que se usa como desatornillador.Y por supuesto los que se maravillan son los técnicos, pero eso no va a impresionar a inversores. Lllevamos años con la promesa de coches autónomos con IA. Y aún no los tenemos. Es que la IA necesita tener TODOS los casos para trabajar bien, pero el mundo real siempre saca nuevos falsos positivos y falsos negativos. Y por eso no hay coches autónomos aún.La IA es muy peligrosa con esos falsos positivos y negativos, porque antes con el software normal, esos casos te daban error. Con la IA solo te arroja un resultado incorrecto sin avisar. Por eso los resultados de IA deben ser validados siempre. Piensa en la IA como una sugerencia, el humano debe decidir si la sugerencia es correcta o no. No va a dejar a la gente sin trabajo.Por ejemplo, sabemos que para enviar un objeto a órbita baja, gastas más o menos 9 partes de energía para alcanzar velocidad orbital y una para lograr la altura orbital. Si usas IA para calcular eso, los números más o menos deberían calzar dentro de cierto rango. Si miras resultados que no son 9 a 1 sino 12 a 10 o 5 a 3, sabes que está mal algo en la IA. Este es un ejemplo muy simplificado para dar una idea sobre validar resultados.No confies tanto en la IA. Es una calculadora. Tienes que validar los resultados.