
A deepfake is AI-generated audio, image, or video that makes it look like a real person said or did something they never did. Australia’s eSafety describes deepfakes as highly realistic but false depictions created using real photos or recordings to model new content.
This is already showing up in scams. ABC News reported a deepfake ad using WA Premier Roger Cook’s likeness and voice to push an investment scam, illustrating how convincing these can be in the wild.(ABC 2025)
How it works (plain language)
Most deepfake scams follow the same steps:
- Collect samples (public videos, social posts, interviews, leaked voice notes).
- Train the AI on voice patterns and facial movement.
- Generate the fake: a call that sounds like a loved one, or a video that “endorses” a product, payment change, or investment.
Scamwatch notes scammers are using deepfake technology and voice cloning to make approaches more believable and personalised.(Scamwatch 2026)
What’s changing (why it’s getting riskier)
- Tools are becoming cheaper and easier to use,
- It’s not just edited clips: NSW Government warns romance scams may include fake video calls using real-time face swapping and voice cloning.
- Dont overestimate detection:
Can you spot one?
Sometimes—but it’s not reliable. CSIRO suggests looking for odd blending, hairline/texture differences, or unnatural facial details, while warning deepfakes may become difficult to detect for most people.With voice, the strongest signal is usually the request: urgent money, secrecy, or pressure to act immediately.(CSIRO 2026)
Practical prevention
- Verify via a second channel: call back using a saved number; confirm work requests in known internal channels.
- Slow down urgency: Scamwatch highlights how manipulation works by pushing panic and speed.
- Reduce your public “training data”: limit long voice clips and personal details on public profiles.
- Be extra cautious with investment/crypto: the National Anti-Scam Centre describes deepfake “public figure” lures used in trading platform scams.
Estafas con deepfakes (voz y video): cuando “suena igual” ya no significa que sea real
Un deepfake es un audio, una foto o un video creado con inteligencia artificial para que parezca que una persona real dijo o hizo algo que nunca ocurrió. En Australia, eSafety lo define justamente así: contenido muy realista pero falso, generado a partir de material real (fotos o grabaciones) de la persona.
En la práctica, esto ya se usa en estafas. Un ejemplo australiano: ABC News informó sobre un anuncio con deepfake del premier de WA, Roger Cook, usado para promocionar una “inversión” fraudulenta.
Cómo funciona (explicado simple)
Casi siempre sigue este patrón:
- Recolectan “muestras”.
- La IA aprende tu estilo
- Scamwatch advierte que los estafadores ya usan deepfakes y clonación de voz para hacer sus historias más creíbles.
Qué está cambiando (por qué el riesgo sube)
- La tecnología es cada vez más barata y convincente,
- El gobierno de Nueva Gales del Sur advierte que en estafas románticas pueden aparecer videollamadas falsas con face-swap en tiempo real y clonación de voz.
- Mucha gente se confía
¿Se puede identificar?
A veces sí, pero no es garantía. CSIRO explica que puedes notar detalles raros (límites de “pegado” de la cara, textura o color, línea del cabello), pero también advierte que podrían volverse casi imposibles de detectar para la mayoría de personas.
En voz, lo más común es que el pedido sea “raro”: urgencia extrema, secreto, presión, o solicitudes de dinero/códigos.
Cómo prevenir (lo que más funciona)
- Verifica por otro canal: cuelga y llama al número guardado; si es “tu jefe”, confirma por un canal corporativo conocido.
- Desconfía de la urgencia: “hazlo ya” es una señal clásica de manipulación (Scamwatch lo destaca como táctica común).
- Protege tu material público: menos audios largos y menos información personal visible = menos “materia prima” para clonarte.
- Si hay inversión o criptomonedas: asume estafa hasta que se demuestre lo contrario; el National Anti-Scam Centre describe cómo usan deepfakes de figuras públicas para atraer víctimas.
Si sospechas, reporta en Australia por los canales oficiales de Scamwatch/National Anti-Scam Centre
References
- ABC News (Australia) — WA Premier deepfake scam video / warninghttps://www.abc.net.au/news/2025-11-08/wa-premier-deepfake-ai-scam-prompts-warning-amid-cheaper-tech/
- Scamwatch (ACCC) — deepfakes + voice cloning in scams / manipulation tactics https://www.scamwatch.gov.au/stop-check-protect/help-to-spot-and-avoid-scams/why-anyone-can-be-a-victim-of-a-scam
- eSafety Commissioner — what deepfakes are (Australia)
https://www.esafety.gov.au/industry/tech-trends-and-challenges/deepfakes - CSIRO — how to spot a deepfake (Australia)
https://www.csiro.au/en/news/all/articles/2024/february/detect-deepfakes - NSW Government media release — AI catfishing, fake video calls, voice cloning
https://www.nsw.gov.au/departments-and-agencies/customer-service/media-releases/think-your-head-and-not-your-heart-to-avoid-scams-valentines-day - National Anti-Scam Centre — deepfake celebrity/public figure investment scam pattern
https://www.nasc.gov.au/news/its-a-scam-celebrities-are-not-getting-rich-from-online-investment-trading-platforms
