¿La velocidad del desarrollo de la inteligencia artificial es muy rápida para el propio bien de los humanos? Esta es la pregunta que desean responder los grandes inversionistas en IA como OpenAI.
OpenAI, la empresa detrás de ChatGPT y DALL-E junto con Elon Musk tomaron la iniciativa de firmar una carta compromiso de pausar el desarrollo le la IA más allá de GPT-4. Pero, ¿qué hay detrás de todo esto?
¿Es necesario frenar el desarrollo de la IA?
Las últimas innovaciones en torno a la tecnología basada en IA están superando los límites de lo que creíamos posible con la IA. Sin embargo, con chatbots como ChatGPT y Bing Chat llegando a ser casi tan buenos como los humanos en varias cosas, ¿ha llegado el momento de pisar el freno por un tiempo? ¿Es necesario?
Elon Musk y varios investigadores de IA se encuentran entre las más de 1,000 personas (en el momento de escribir este artículo) que piensan que sí. Una carta publicada por el instituto Future of Life pide una pausa de seis meses en el entrenamiento de tecnologías de IA superiores a GPT-4, pero ¿es realmente necesaria una pausa? Yo pienso que sí.
Cuando estás en una carrera por ser el primero, muchas veces se compromete el objetivo inicial por el cual inició la carrera. Esto siempre pasa y hoy, esta tecnología se nos puede salir de las manos en pocos años. Especialmente si no hay regulación alguna como hasta ahora.
Puntos abordados en la carta de Future of Life
Hace unos meses Elon Musk dijo que aquella empresa que sea la pionera en desarrollar y perfeccionar la inteligencia artificial sería la que tendría una influencia absoluta en las decisiones del planeta. Aunque muchas veces radicales y cuestionables, las ideas y de Elon Musk siempre tienen un componente predictivo, con el tiempo la verdadera intención sale a relucir.
La carta publicada por el instituto Future of Life señala que los laboratorios de IA se han visto “enfrascados en una carrera fuera de control” para desarrollar y desplegar modelos de IA cada vez más potentes y que nadie, incluidos sus creadores, puede “entender, predecir o controlar de forma fiable”.
También señala que los sistemas actuales de IA están llegando a competir con los humanos en tareas generales y se cuestiona si deberíamos desarrollar “mentes no humanas que con el tiempo podrían superarnos en número, inteligencia, obsolescencia y reemplazo”.
Contenido relacionado: ChatGPT vs. Marketing Tradicional: Cómo la IA te ayuda a superar a los expertos en marketing
La carta pide a todos los laboratorios de IA que suspendan inmediatamente el entrenamiento de sistemas de IA más potentes que el GPT-4 durante al menos seis meses. La pausa debe ser pública y verificable también por todos los actores clave. También se afirma que si dicha pausa no puede aplicarse rápidamente, los gobiernos deberían intervenir para prohibir temporalmente el entrenamiento de modelos de IA. ¿Cómo? No veo la forma, no ha sucedido con las redes sociales.
Veo complicado que esto suceda, porque siempre habrá alguien que ignorará el compromiso. No sabemos qué adelantos en IA han hecho India, Rusia, China y Corea del Norte.
Volviendo al contenido de la carta, una vez que la pausa esté activa, se pide a los laboratorios de IA y a los expertos independientes que la utilicen para desarrollar y aplicar conjuntamente un “compendio compartido de protocolos de seguridad” que garanticen que los sistemas que se adhieren a estas normas son “seguros más allá de toda duda razonable”.
Parece que las historias de ficción de películas se están volviendo realidad.
Entre las personas que firman la carta encontrarás a las siguientes personalidades:
- Elon Musk: CEO de SpaceX, Tesla y Twitter.
- Stuart Russell: Profesor de Ciencia Computacionales en University of California, Berkeley y autor de Artificial Intelligence: A Modern Approach, libro de texto en más de 1500 universidades en el mundo.
- Steve Wozniak: CO-fundador de Appple Computer.
Esto por solo nombrar a algunos. Me llama la atención la firma de Elon Musk.
¿Cuál es la preocupación de Elon Musk de la tecnología de IA avanzada y OpenAI?
¿Realmente Elon Musk está preocupado por los riesgos de seguridad que plantean estos sistemas avanzados de IA? Pienso que la verdadera razón para firmar la mencionada carta podría ser otra.
Musk cofundó OpenAI con el actual CEO Sam Altman en 2015 como una organización sin fines de lucro. Sin embargo, se peleó con Altman más tarde en 2018 al no estar contento con el progreso de la compañía.
Al parecer, Musk quería hacerse cargo para acelerar el desarrollo, pero Altman y la junta de OpenAI rechazaron la idea. Esto refuerza mi comentario anterior sobre las acciones de Musk.
Musk se alejó de OpenAI poco después y se llevó su dinero rompiendo su promesa de aportar 1,000 millones en financiamiento y solo dió 100 millones antes de marcharse. Esto obligó a OpenAI a buscar inversionistas en marzo de 2019, con el fin de recaudar fondos para continuar con su investigación. Microsoft fue una de las empresas que se subió al barco de OpenAI.
Otra razón por la que Musk se marchó fue que el desarrollo de la IA en Tesla provocaría un conflicto de intereses en el futuro. Es obvio que Tesla necesita sistemas avanzados de IA para impulsar sus funciones de conducción autónoma total.
Desde que Musk abandonó OpenAI, la compañía se ha lanzado con sus modelos de IA, lanzando el ChatGPT impulsado por GPT3.5 en 2022 y más tarde impulsado con el GPT-4 en marzo de 2023.
Te invito a leer mi libro electrónico sobre «Inteligencia Artificial aplicada a tu vida diaria» para conocer más cobre ChatGPT.
El hecho de que el equipo de IA de Musk no esté ni cerca de OpenAI debe tenerse en cuenta cada vez que dice que los modelos modernos de IA podrían plantear riesgos. Además, no tuvo ningún problema en lanzar la versión beta de la conducción autónoma completa de Tesla en carreteras públicas, convirtiendo a los conductores habituales de Tesla en probadores beta.
Musk también se ha mostrado bastante crítico con OpenAI en Twitter. Todo parece dejar entre ver el real objetivo de Elon Musk. Frenar el desarrollo 6 meses para que Tesla y sus otras empresas puedan avanzar y ponerse al día con su IA en este mercado tan competido. ¿Qué opinas?
¿Habrá beneficios con esta pausa?
La necesidad de una pausa depende del estado de los modelos de IA en el futuro. La carta es algo dramática, y no nos estamos arriesgando a perder el control de nuestra civilización en manos de la IA, como afirma tan abiertamente. ¿O sí?
Dicho esto, las tecnologías de IA plantean algunas amenazas.
Teniendo en cuenta que OpenAI y otros laboratorios de IA pueden idear mejores controles de seguridad, una pausa haría más mal que bien. Sin embargo, la sugerencia de la carta de un conjunto de protocolos de seguridad compartidos que sean «rigurosamente auditados y supervisados por expertos externos independientes» parece una buena idea.
Con gigantes tecnológicos como Google y Microsoft invirtiendo miles de millones en el desarrollo y la integración de la IA en sus productos, es poco probable que la carta afecte al ritmo actual de desarrollo de la IA.
La seguridad SI es un tema importante
Al parecer la historia no nos ha ensañado nada. Estamos entrando en una nueva era en que la IA ya está aquí y ya es parte de nuestras vidas. Esto mismo paso cuando brotaron las redes sociales y de pronto las opiniones y contenido se veía influenciada por los grandes capitales detrás de las redes. Esto gracias a la falta de regulación.
Hoy el gobierno de EUA está preocupado por el manejo de los datos en TikTok y pretenden bloquear la plataforma en EUA, realmente por fines políticos. Sin embargo, el hecho de que el Dueño de TikTok sea de origen chino, no lo hace más o menos regulable que a Mark Zuckerberg o ahora a Elon Musk detrás de Twitter.
Todos ellos deben ser regulados de la misma forma, y ahora es el momento de poner candados en lo que se permitirá hacer o no con la IA que hoy ya ha mostrado indicios de mayor inteligencia que el ser humano.
La pregunta real sería, que tan inteligentes llegarán a ser y si en el futuro cercano serán capaces de plantearse sus propios objetivos que resulten ir en contra de los de la humanidad.
¿Si el ser humano está cada vez más polarizado en opiniones sobre un tema en común como puede ser el cambio climático o el derecho al aborto, que posición tomarán los modelos entrenados de IA como la correcta cuando sean más inteligentes que nosotros?
Te recomiendo mi e-book sobre ChatGPT. Clic aquí o en la imagen.
Hasta la próxima…
¿Necesitas ayuda para promocionar tu PyME? Nosotros te podemos ayudar.
¡Acércate a nosotros para asesorarte!