Más de 1000 líderes tecnológicos firman una petición que pide la pausa de los “experimentos gigantes de IA” en respuesta al lanzamiento de GPT-4.
El empresario multimillonario Elon Musk y una variedad de líderes tecnológicos pidieron el miércoles una pausa en el desarrollo de poderosos sistemas de inteligencia artificial (IA) para dar tiempo a asegurarse de que estén seguros.
Una carta abierta, firmada por más de 1,000 personas hasta el momento, incluidos Musk y el cofundador de Apple, Steve Wozniak, fue en respuesta al reciente lanzamiento de GPT-4 de la startup OpenAI de San Francisco, un sucesor más avanzado de su chatbot de IA ampliamente utilizado ChatGPT que ayudó a desencadenar una carrera entre los gigantes tecnológicos Microsoft y Google para presentar aplicaciones similares.
La compañía dice que su último modelo es mucho más poderoso que la versión anterior, que se usó para impulsar ChatGPT, un bot capaz de generar fragmentos de texto a partir de las indicaciones más breves.
“Los sistemas de IA con inteligencia humana-competitiva pueden plantear profundos riesgos para la sociedad y la humanidad”, decía la carta abierta titulada “Pause Giant AI Experiments”.
“Los poderosos sistemas de inteligencia artificial deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables”, dijo.
Musk fue un inversor inicial en OpenAI y pasó años en su directorio. Su empresa de automóviles, Tesla, desarrolla sistemas de inteligencia artificial para ayudar a potenciar su tecnología de conducción autónoma, entre otras aplicaciones.
La carta, organizada por el Future of Life Institute, financiado por Musk, fue firmada por destacados críticos y competidores de OpenAI como el jefe de Stability AI, Emad Mostaque.
Varios gobiernos ya están trabajando para regular las herramientas de IA de alto riesgo. El Reino Unido publicó un documento el miércoles que describe su enfoque, que dijo que “evitará una legislación de mano dura que podría sofocar la innovación”. Los legisladores de las 27 naciones de la Unión Europea han estado negociando la aprobación de amplias reglas de IA.
‘Digno de confianza y leal’
La carta citaba un blog escrito por el fundador de OpenAI, Sam Altman, quien sugirió que “en algún momento, puede ser importante obtener una revisión independiente antes de comenzar a entrenar sistemas futuros”.
“Estamos de acuerdo. Ese punto es ahora”, escribieron los autores de la carta abierta.
“Por lo tanto, hacemos un llamado a todos los laboratorios de IA para que pausen de inmediato durante al menos seis meses el entrenamiento de los sistemas de IA más potentes que GPT-4”.
Pidieron a los gobiernos que intervengan e impongan una moratoria si las empresas no llegan a un acuerdo.
Los seis meses deben usarse para desarrollar protocolos de seguridad, sistemas de gobierno de IA y reenfocar la investigación para garantizar que los sistemas de IA sean más precisos, seguros, “confiables y leales”.
La carta no detalla los peligros revelados por GPT-4.
Pero investigadores como Gary Marcus de la Universidad de Nueva York, quien firmó la carta, han argumentado durante mucho tiempo que los chatbots son grandes mentirosos y tienen el potencial de ser súper propagadores de desinformación.
Sin embargo, el autor Cory Doctorow ha comparado la industria de la IA con un esquema de “bomba y descarga”, argumentando que tanto el potencial como la amenaza de los sistemas de IA se han exagerado enormemente.
#Musk #otros #expertos #tecnología #instan #detener #nuevos #desarrollos #Noticias #tecnología
source:Al Jazeera – Breaking News, World News and Video from Al Jazeera
Musk y otros expertos en tecnología instan a detener nuevos desarrollos de IA | Noticias de tecnología