Cómo impedir que X (Twitter) utilice tus datos para entrenar a su inteligencia artificial, Grok

Esta semana se supo que X (anteriormente Twitter) introdujo discretamente un nuevo ajuste que permite a la plataforma utilizar tus datos para entrenar a su chatbot de IA, Grok. El ajuste, que permite a X utilizar las publicaciones de los usuarios, las interacciones con Grok y otros datos para fines de entrenamiento de IA, fue compartido por primera vez en X por un usuario en las primeras horas del 26 de julio.
Según el usuario de X EasyBakedOven, esta función no es fácilmente accesible a través de la aplicación móvil, lo que significa que los usuarios solo pueden desactivar la configuración en la web. Aunque una página del centro de ayuda de X explica esta función y cómo los usuarios pueden desactivarla, la medida ha dejado a muchos usuarios de X preocupados, ya que la configuración está activada por defecto sin su consentimiento ni un anuncio formal de la empresa. Entonces, ¿cómo evitar que Grok utilice tus publicaciones en X para el entrenamiento de su IA?
Para desactivar esta función de intercambio de datos, los usuarios deben seguir estos pasos:
- Entra en x.com a través de un navegador web y accede a tu cuenta con tu usuario y contraseña.
- En el menú de la izquierda, ve a “Configuración y privacidad”.
- Selecciona “Privacidad y seguridad”.
- Desplázate hasta el final y haz clic en “Grok”.
- Desmarca la casilla que permite el uso de datos para el entrenamiento de la IA, y listo.
Grok, lanzado por la compañía de IA de Elon Musk, xAI a finales de 2023, es la respuesta de Musk a los populares chatbots de IA como ChatGPT, Claude y Google Gemini. A pesar de los esfuerzos de Musk por mejorar Grok con el lanzamiento de Grok-1.5, aún no supone una competencia real para otros modelos. A principios de año, Musk decidió convertir Grok en un modelo de IA de código abierto para aumentar aún más su apuesta.
La decisión de dar a Grok acceso por defecto a los datos de los usuarios de X es similar a la polémica que rodeó a Slack el pasado mes de mayo. La plataforma de comunicación en el lugar de trabajo se enfrentó a críticas por utilizar por defecto datos de clientes para entrenar sus modelos de IA sin obtener el consentimiento explícito de los usuarios. Esta práctica levantó sospechas sobre la privacidad de los datos y las implicaciones éticas del uso de comunicaciones sensibles en el lugar de trabajo con fines de entrenamiento de IA, que parece ser una situación que, como usuarios, enfrentaremos de forma bastante frecuente de ahora en adelante.
Despues de leer, ¿qué te pareció?