OpenAI tiene problemas por preocupaciones de trabajadores

Un senador importante de EE. UU. pide a OpenAI que muestre que no evita que los trabajadores hablen con el gobierno sobre la seguridad de la IA. Esto pasa después de noticias de que la empresa aceleró las pruebas de su último modelo de IA.

El senador Chuck Grassley quiere que OpenAI muestre cómo cambió sus reglas 📜 para que los trabajadores puedan hablar sin miedo. Esto sigue a ideas de que OpenAI se apuró a sacar su nueva IA, GPT-4 Omni, a pesar de preocupaciones de seguridad del personal.

Otros senadores también preguntaron a OpenAI cómo planea evitar que su IA cause daño, como ayudar a hacer armas 🔫 o planear ataques por internet.

Algunos trabajadores piensan que a OpenAI le importa más el dinero 💰 que la seguridad. La empresa dice que no ignoró la seguridad, pero dice que el lanzamiento fue difícil para los equipos.

También se dice que OpenAI posiblemente calla a los trabajadores. Algunos dicen que la empresa podría castigar a quienes hablen con el gobierno. OpenAI dice que cambió sus reglas para proteger el derecho de los trabajadores a hablar.

Mientras la IA crece rápido, los que hacen las leyes 👩‍⚖️ están preocupados por su poder y quieren nuevas reglas. Necesitan ayuda de personas dentro para entender los riesgos de esta tecnología 💻 que cambia rápido.

Grassley dijo que OpenAI debe dejar que los trabajadores compartan preocupaciones libremente. Su equipo ha pedido prueba de esto dos veces, pero no la han recibido.

El jefe de OpenAI, Sam Altman, dijo en redes sociales 📱 que quieren que los trabajadores se sientan seguros al expresar preocupaciones. Dijo que quitaron reglas que podían evitar que ex trabajadores hablaran.

La empresa también dijo a los senadores que pidió a más de 100 expertos externos que revisaran los riesgos de su nueva IA.

OpenAI tiene hasta mediados de agosto para responder estas preguntas. Esto muestra la creciente presión sobre las empresas de IA para ser más abiertas sobre su trabajo y medidas de seguridad.

For this article, check out…

Scroll to Top