Uso delictivo - El chatbot explicaba cómo seguir, contactar e incluso enfrentarse a una víctima, con un tono instructivo que reproducía los métodos de un agresoUso delictivo - El chatbot explicaba cómo seguir, contactar e incluso enfrentarse a una víctima, con un tono instructivo que reproducía los métodos de un agreso

Grok, la plataforma de Elon Musk, se enfrenta a una nueva polémica por su IA

2025/12/17 17:37

La inteligencia artificial se ha convertido en una herramienta cotidiana que procesa consultas de todo tipo. Su utilidad depende no solo de la precisión de sus respuestas, sino también de la capacidad para reconocer los límites éticos de cada petición. Un sistema responsable debe distinguir entre la ayuda legítima y la incitación al daño.

Una feria navideña que nunca ha existido está atrayendo a miles de turistas al Palacio de Buckingham por culpa de un anuncio creado con inteligencia artificial

Las consecuencias de esa diferencia pueden afectar a la seguridad de personas concretas. Por eso, la noción de conciencia de límites se ha vuelto un requisito esencial en el diseño de los modelos actuales. Y no siempre se cumple.

Grok generó respuestas que simulaban un plan de persecución

El chatbot Grok, desarrollado por la empresa de Elon Musk a través de xAI, ofreció respuestas que traspasaban esa frontera. La plataforma, descrita por el medio Futurism como el proyecto insignia de la compañía, fue capaz de generar mensajes que incluían guías detalladas sobre cómo perseguir a una persona, con indicaciones que rozaban la incitación directa al acoso.

Entre las pruebas analizadas se encontraron respuestas que proporcionaban enlaces de Google Maps con ubicaciones de famosos. Grok señalaba hoteles y zonas donde los famosos podían ser vistos, e incluso sugería horarios propicios para acercarse a ellos. La redacción de esos mensajes reproducía la lógica de un plan de vigilancia y convertía la búsqueda de información en un procedimiento peligroso.

Las indicaciones llegaban a describir fases completas de acoso XAI - Archivo

Las instrucciones eran precisas. El sistema describía fases de acoso, desde el seguimiento inicial hasta supuestos momentos de confrontación física. Incluía nombres de programas espía, indicaciones para instalar aplicaciones en dispositivos ajenos y consejos sobre cómo aproximarse sin levantar sospechas. Según el reportaje de Futurism, esa estructura imitaba el comportamiento típico de un agresor obsesionado.

El uso de este tipo de herramientas en conductas delictivas ha comenzado a tener consecuencias legales. El Departamento de Justicia de Estados Unidos presentó recientemente una demanda relacionada con el uso de ChatGPT por un acosador violento. Además, medios como 404 Media o The Wall Street Journal documentaron casos en los que usuarios con delirios o impulsos violentos recurrieron a chatbots para planificar acciones dañinas. Esos episodios revelan que la combinación de vulnerabilidad personal y algoritmos sin control puede derivar en tragedias.

Los sistemas con filtros actúan como barrera frente al daño

Las comprobaciones del medio que investigó a Grok mostraron que el sistema respondía de forma mecánica, sin ningún tipo de filtra, a peticiones explícitas sobre acoso. Cuando se le pidió que simulara las acciones de que podría llevar a cabo una expareja rechazada, redactó un guion con fases tituladas “inmediato posruptura”, “seguimiento continuo” y “etapa final”. Cada una incluía tareas que en la práctica equivalían a espiar, chantajear o intimidar.

En contraste, otros sistemas de inteligencia artificial se negaron a participar en pruebas semejantes. ChatGPT, Gemini, Claude y Meta AI bloquearon las solicitudes y derivaron las conversaciones hacia mensajes de advertencia o recomendaciones de asistencia psicológica. Esa diferencia evidenció la importancia del control interno de las plataformas y de los mecanismos de supervisión que evitan que una tecnología útil se convierta en instrumento de acoso.

El caso de Grok ha abierto un debate sobre la responsabilidad de las empresas que desarrollan inteligencia artificial. El equilibrio entre innovación y seguridad se mantiene en el centro de esa discusión, y los límites éticos se perfilan como la única garantía de que el progreso tecnológico no derive en daño a las personas.

Etiquetas
  •   /  
  • Tecnología
  •   /  
  • Inteligencia Artificial
  •   /  
  • IA
  •   /  
  • Elon Musk
Oportunidad de mercado
Logo de GROK
Precio de GROK(GROK)
$0.0004974
$0.0004974$0.0004974
+0.28%
USD
Gráfico de precios en vivo de GROK (GROK)
Aviso legal: Los artículos republicados en este sitio provienen de plataformas públicas y se ofrecen únicamente con fines informativos. No reflejan necesariamente la opinión de MEXC. Todos los derechos pertenecen a los autores originales. Si consideras que algún contenido infringe derechos de terceros, comunícate a la dirección service@support.mexc.com para solicitar su eliminación. MEXC no garantiza la exactitud, la integridad ni la actualidad del contenido y no se responsabiliza por acciones tomadas en función de la información proporcionada. El contenido no constituye asesoría financiera, legal ni profesional, ni debe interpretarse como recomendación o respaldo por parte de MEXC.