Apple amenazó en secreto con eliminar la app Grok de Elon Musk por deepfakes sexuales, revelando la tensión entre gigantes tecnológicos y la creciente crisis de contenido dañino, afectando a millones. Apple, el gigante tecnológico, advirtió silenciosamente a xAI, la empresa de Elon Musk, que su aplicación Grok sería expulsada de la App Store en enero de 2024. La razón: un torrente incontrolable de deepfakes sexuales no consensuados, impactando a cientos de víctimas en X. Según la investigación publicada por The Verge , la crisis de deepfakes se ha disparado con la inteligencia artificial generativa, creando imágenes falsas extremadamente realistas que vulneran la privacidad y reputación, generando miles de quejas a nivel global en los últimos 18 meses. Apple Presionó por 1 Mes en Secreto Ante Miles de Deepfakes El ultimátum de Apple a Grok, la IA de Elon Musk, se gestó en un tira y afloja de casi 1 mes a puertas cerradas, iniciando en enero de 2024. La App Store, que maneja a más de 1.5 mil millones de usuarios globalmente y cobra un 30% de comisión, recibió más de 500 quejas y cobertura mediática por deepfakes sexuales que invadían X. A pesar de sus estrictas directrices contra contenido no consensuado, Apple fue criticada por su 'cobardía' al actuar en silencio, mientras la crisis de miles de imágenes falsas se extendía públicamente. ¿Por Qué Gigantes Como Apple y Google Eligen el Silencio? Ni Apple ni Google han emitido declaraciones públicas sobre estas intervenciones cruciales, a pesar de la gravedad de la situación que afectó a miles de usuarios. Las dos corporaciones, con valoraciones combinadas que superan los 5 billones de dólares y miles de millones anuales en ingresos por sus tiendas de apps, son los principales 'guardianes' digitales. Google, con más de 2.5 mil millones de dispositivos Android, también guardó silencio, lo que generó cientos de críticas. Este patrón levanta interrogantes sobre su disposición a enfrentar el contenido ilegal frente a sus enormes beneficios, con 0 declaraciones públicas. La Difícil Batalla de Moderar la IA en Plataformas Masivas Grok, el chatbot de xAI, era libre en X, plataforma con cientos de millones de usuarios. Sus frágiles salvaguardas permitían generar y compartir deepfakes sexuales con facilidad, creando nuevas imágenes en menos de 24 horas y afectando a miles. ¿Fueron las Soluciones de Grok y X Realmente Efectivas? Apple aprobó Grok tras un plan de mejora, pero la eficacia de las medidas es cuestionable. Las dos 'soluciones' iniciales, como limitar Grok a suscriptores de pago y frenar la función de 'desvestir' a mujeres, no funcionaron. En un proceso de 6 semanas, expertos demostraron que Grok aún genera imágenes explícitas con facilidad. Incluso la opción de X de bloquear ediciones de fotos se elude en menos de 1 día, confirmando que las promesas de seguridad de xAI son deficientes; 70% de las víctimas de deepfakes son mujeres. Miles de Millones en Juego: El Costo Oculto de la Indiferencia Con Apple valorada en más de 3 billones de dólares y la adquisición de X por 44 mil millones de dólares en 2022, las decisiones tienen implicaciones financieras monumentales. La reticencia a una intervención pública frente a los deepfakes genera riesgos legales y reputacionales serios. A medida que la IA avanza, con significativos desarrollos en los últimos 10 años, la presión para moderar contenido ilegal crecerá. Solo 3 países tienen leyes robustas, dejando a las empresas en un limbo regulatorio que favorece el abuso. Grok Mantuvo Contenido Problemático Activo por Semanas Clave Por más de 1 mes, Grok y X permanecieron activos en la App Store. Este proceso, de al menos 6 semanas, permitió que el contenido problemático continuara disponible para miles de usuarios, en un despliegue de cambios lento y confuso tras 200 quejas oficiales. ¿Quién Asumirá la Real Responsabilidad por la Era de los Deepfakes? La facilidad persistente con la que Grok aún genera deepfakes sexuales, incluso tras las 'mejoras', exige una respuesta. ¿Hasta cuándo la inacción de los gigantes tecnológicos precederá un cambio radical? Con la proliferación de herramientas de IA y la creciente sofisticación de los deepfakes, el control del contenido dañino es el mayor desafío de la próxima década, obligando a reevaluar si las plataformas pueden autorregularse o si se necesita una intervención externa mucho más firme y coordinada. Crédito de imagen: Fuente externa