Saltar al contenido

La NUEVA ESTAFA por INTERNET que incluye a CHATGPT

Los cibercriminales están utilizando la inteligencia artificial para generar contenido malicioso y engañar a organizaciones. En foros de la web oscura, se ha observado una tendencia creciente en la que los delincuentes promocionan grandes modelos de lenguaje que afirman haber creado. Estos sistemas, que pretenden imitar a ChatGPT y Bard de Google, están diseñados para actividades ilegales.

Estos chatbots, denominados WormGPT y FraudGPT, se promocionan con capacidades avanzadas. WormGPT, por ejemplo, ofrece un número ilimitado de caracteres y formato de código. Daniel Kelley, de la firma de seguridad SlashNext, señaló que estos modelos de IA son especialmente útiles para el phishing, ya que facilitan la entrada a ciberdelincuentes inexpertos.

El phishing es una técnica de estafa en línea donde los atacantes se hacen pasar por entidades confiables para obtener información personal. Estos chatbots maliciosos no son gratuitos y tienen planes que varían en precio.

FraudGPT, por otro lado, se promociona como un sistema superior, capaz de crear malware indetectable y descubrir vulnerabilidades. Rakesh Krishnan, de la empresa de seguridad Netenrich, identificó a FraudGPT y señaló que se ha promocionado en varios foros oscuros y canales de Telegram.

A diferencia de los modelos de lenguaje de empresas reconocidas, que tienen medidas de seguridad para prevenir usos inapropiados, estos chatbots dudosos afirman haber eliminado todas las protecciones de seguridad y restricciones éticas. A pesar de las afirmaciones de los promotores de estos chatbots, es difícil verificar su autenticidad.

Sergey Shykevich, de Check Point, sugiere que WormGPT es legítimo y que el vendedor detrás de él tiene un historial en foros de cibercrimen. Tanto el FBI como Europol han advertido sobre el potencial uso de la inteligencia artificial generativa en actividades delictivas.