es tan ambicioso como condenado al fracaso La percepción pública sobre las habilidades de la IA no puede superar las leyes de la física. Casi no se sabe nada sobre el último proyecto de Elon Musk, una startup de inteligencia artificial llamada xAI. Pero «casi nada» sigue siendo algo. Y podemos deducir mucho de lo poco que sabemos.
Como informó recientemente AurealTrade, Musk anunció xAI el 12 de julio en un comunicado de tres frases: «Hoy anunciamos la formación de xAI. El objetivo de xAI es comprender la verdadera naturaleza del universo. Puedes conocer al equipo y hacernos preguntas durante un chat en Twitter Spaces el viernes 14 de julio».
Según esta información, podemos deducir que xAI existe, está condenado al fracaso y se revelará más información sobre cómo fracasará en Twitter. La razón por la que está condenado al fracaso es simple: las leyes de la física lo impiden.
Según un informe de Reuters, la motivación de Musk para xAI se basa en el deseo de desarrollar una inteligencia artificial segura (IA). En un evento reciente de Twitter Spaces, dijo:
«Si intentara comprender la verdadera naturaleza del universo, eso sería lo mejor que puedo pensar desde el punto de vista de la seguridad de la IA». Este es un objetivo loable, pero cualquier intento de comprender la naturaleza «verdadera» del universo está condenado al fracaso porque no existe un centro de conocimiento de verdad absoluta donde podamos verificar nuestras teorías.
No se trata de que los humanos no sean lo suficientemente inteligentes para comprender la naturaleza del universo, el problema es que el universo es realmente, realmente grande y estamos atrapados dentro de él.
El principio de incertidumbre de Heisenberg nos dice inequívocamente que ciertos aspectos de la realidad no se pueden confirmar simultáneamente mediante observación o medición. Esta es la razón por la cual no podemos simplemente medir la distancia entre la Tierra y Urano, esperar un año, medirla nuevamente y determinar la tasa exacta de expansión del universo.
El método científico requiere observación y, como nos enseña el principio antrópico, todos los observadores están limitados.
En el caso del universo observable, estamos aún más limitados por la naturaleza de la física. El universo se está expandiendo a un ritmo tan rápido que nos impide medir cualquier cosa más allá de cierto punto, sin importar las herramientas que usemos. La expansión del universo no solo lo hace más grande, sino que le da un «horizonte cosmológico» definido que las leyes de la física nos impiden medir más allá. Si enviáramos una sonda a la velocidad máxima permitida por las leyes de la física, la velocidad de la luz, entonces todo lo que esté más allá del punto exacto al que la sonda podría viajar en X cantidad de tiempo será inaccesible para siempre.
Esto significa que incluso una superinteligencia hipotética capaz de procesar todos los datos generados hasta ahora no podría determinar ninguna verdad fundamental sobre el universo.
Una pequeña variante del experimento mental del Gato de Schrödinger, llamado Amigo de Wigner, demuestra por qué esto es así. En el original, Erwin Schrödinger imaginó un gato atrapado en una caja con un frasco de líquido radiactivo y un martillo que golpearía el frasco, y así mataría al gato, al completarse un proceso cuántico.
Una de las diferencias fundamentales entre los procesos cuánticos y clásicos es que los procesos cuánticos pueden ser afectados por la observación. En la mecánica cuántica, esto significa que el hipotético gato está vivo y muerto hasta que alguien lo observe.
Según se informa, el físico Eugene Wigner se sintió «irritado» por esto y decidió agregar su propio giro al experimento mental para desafiar las afirmaciones de Schrödinger. Su versión agregó dos científicos, uno dentro del laboratorio que abre la caja para observar si el gato está vivo o muerto y otro afuera que abre la puerta del laboratorio para ver si el científico de adentro sabe si el gato está vivo o muerto.
Lo que xAI parece estar proponiendo es una inversión del experimento mental de Wigner. Aparentemente, quieren sacar al gato de la caja y reemplazarlo con un sistema de inteligencia artificial de transformer pre-entrenado general (GPT), es decir, un chatbot como ChatGPT, Bard o Claude 2. En lugar de pedirle a un observador que determine si la IA está viva o muerta, su plan es pedirle a la IA que descubra verdades fundamentales sobre el laboratorio fuera de la caja, el mundo fuera del laboratorio y el universo más allá del horizonte.
0 comentarios