Vés al contingut
Logo GMV

Main navigation

  • Sectors
    • Icono espacio
      Espai
    • Icono Aeronáutica
      Aeronàutica
    • Icono Defensa y Seguridad
      Defensa i seguretat
    • Icono Sistemas Inteligentes de Transporte
      Sistemes intel·ligents de transport
    • Icono Automoción
      Automoció
    • Icono Ciberseguridad
      Ciberseguretat
    • Icono Servicios públicos Digitales
      Serveis públics digitals
    • Icono Sanidad
      Sanitat
    • Icono Industria
      Indústria
    • Icono Financiero
      Financer
    • Icono Industria
      Serveis
    • Tots els sectors

    Destaquem

    Estafas con Inteligencia Artificial
    Estafes amb intel·ligència artificial: Tipus, com detectar-les i mesures per prevenir-les
  • Talent
  • Sobre GMV
    • Coneix l’empresa
    • Història
    • Equip directiu
    • Certificacions
    • Responsabilitat social corporativa
  • Comunicació
    • Notícies
    • Esdeveniments
    • Blog
    • Revista GMV News
    • Sala de premsa
    • Biblioteca de mitjans
    • Actualitat GMV

Secondary navigation

  • Productes A-Z
  • GMV Global
    • Global (en)
    • Espanya i LATAM (es - ca - en)
    • Alemanya (de - en)
    • Portugal (pt - en)
    • Polònia (pl - en)
    • Totes les seus i els llocs web de GMV
  • Inici
Tornar
Nova cerca
Date
Blog
  • Tot Ciberseguretat

Estafes amb intel·ligència artificial: Tipus, com detectar-les i mesures per prevenir-les

09/09/2025
  • Impressió
Compartir
Estafas con Inteligencia Artificial

La intel·ligència artificial (IA) està cada cop més present en el nostre dia a dia, des d’assistents virtuals que fem servir a casa, fins a les recomanacions personalitzades que rebem quan naveguem per internet. Sens dubte, aquesta tecnologia ens facilita la vida i ens obre un ventall de possibilitats en molts àmbits. Però no tot són avantatges.


De la mateixa manera que nosaltres ens en beneficiem, els ciberdelinqüents també s’aprofiten de la IA, una eina poderosa per perfeccionar les seves estafes i fer-les molt més difícils de detectar. Això provoca que les estafes millorades amb intel·ligència artificial no només són cada cop més freqüents, sinó també més complexes i realistes, la qual cosa posa en perill tant la nostra seguretat personal com la d’empreses i organitzacions de tot el món.


En aquest article parlaré sobre les principals estafes amb IA, com pots identificar-les i, el que és més important, quines mesures pots prendre per protegir-te. Estar informat és el primer pas per navegar amb confiança i seguretat en l’entorn digital actual.


La IA permet als estafadors executar atacs més realistes i personalitzats; algunes de les estafes en què més ha influït l’ús de la IA són:

  • Deepfakes
    Els deepfakes o vídeos hipertrucats són vídeos manipulats per fer creure als usuaris que veuen una determinada persona, tant anònima com coneguda, fent declaracions o accions que mai no han ocorregut. Per crear aquests vídeos s’utilitzen eines o programes dotats de tecnologia d’intel·ligència artificial que permeten l’intercanvi de rostres en imatges i la modificació de la veu, per exemple, per simular la veu d’un directiu a través d’una trucada per autoritzar transferències bancàries o una videotrucada d’un supòsit familiar en dificultats per sol·licitar-te diners.
  • Phishing potenciat per IA
    Els ciberdelinqüents empren models de llenguatge avançat per generar correus electrònics i missatges altament personalitzats a partir de les dades o la informació que identifiquin sobre la víctima; també són capaços d’imitar l’estil d’escriptura de persones o institucions de confiança. Això augmenta les probabilitats que la víctima lliuri informació confidencial o accedeixi a enllaços maliciosos.
  • Chatbots falsos
    Alguns ciberdelinqüents creen chatbots o bots de conversa que imiten de manera realista el comportament d’agents de suport legítims per obtenir dades personals, credencials o detalls bancaris.
  • Fraus en xarxes socials
    Utilitzant IA, es generen perfils falsos que envien missatges automàtics per a estafes romàntiques, sol·licituds de diners, ofertes de treball o difusió d’enllaços que condueixen a programari maliciós.

Tot i que són cada vegada més sofisticades, hi ha signes que ens poden ajudar a detectar o identificar aquesta mena d’estafes impulsades per IA.

  • Una cosa a la qual hem de prestar especial atenció són els errors subtils en àudio, imatge o text. Els deepfakes o missatges generats per IA poden contenir imperfeccions, com ara moviments facials o gesticulacions poc naturals, veus robòtiques o frases incoherents.
  • Si reps sol·licituds urgents o inusuals, desconfia si et demanen diners, informació confidencial o que facis accions sota pressió.
  • En altres ocasions, podem identificar incongruències en la comunicació, canvis sobtats en la forma d’escriure, missatges fora d’horari habitual o preguntes que no corresponen al context i que poden ser senyals d’alerta.
  • Finalment, hem de revisar en detall enllaços i arxius sospitosos, correus o missatges amb enllaços escurçats, arxius inesperats o redireccions a llocs web estranys.
     

Davant d’aquesta mena d’estafes hem d’usar el sentit comú per diferenciar el que és habitual o no, però podem aplicar també una combinació d’eines i formació per protegir-nos.

  • Abans de compartir informació sensible o fer transferències, el primer pas és confirmar per altres mitjans l’autenticitat i l’origen de la sol·licitud, especialment si és urgent.
  • Informar-se sobre noves amenaces i tendències, a més d’ensenyar companys o familiars a identificar-les, és crucial per protegir-nos d’aquesta mena d’estafes.
  • Utilitzar eines de seguretat preventives com antivirus, filtres antiinundació i solucions de verificació d’identitat poden ajudar a detectar atacs abans que causin danys.
  • Cal mantenir els sistemes, les aplicacions i els dispositius actualitzats per evitar vulnerabilitats que puguin ser explotades per IA maliciosa.
  • Cal afegir, sempre que sigui possible, una capa extra de seguretat com la doble autenticació (2FA), que dificulta l’accés a comptes, fins i tot si una contrasenya ha estat robada mitjançant enginyeria social o phishing.


Ara, posem un exemple pràctic per veure com aquestes estafes ens poden afectar en el nostre dia a dia. Imagina que reps un missatge de vídeo aparentment inconfusible d’un familiar visiblement angoixat que et demana una transferència de diners perquè estroba en un destret, o té una urgència mèdica a l’estranger. El número sembla legítim i la veu, generada per IA, reprodueix el to, l’accent i fins i tot algunes falques típiques del teu familiar. La pressió i el context et fan confiar en la petició. Tanmateix, si dediques un moment a verificar la situació a través d’un altre canal, com un missatge directe o una segona trucada al número oficial, descobriràs que ha estat un intent de deepfake de veu usant àudios o vídeos del teu familiar extrets de les seves xarxes socials. Aquesta mena de frau està esdevenint cada cop més comuna per tot el món.

En conclusió, les estafes amb intel·ligència artificial representen un repte cada vegada més gran per a la ciberseguretat global, ja que a mesura que la tecnologia evoluciona, els mètodes per enganyar i manipular els usuaris també es perfeccionen. La millor defensa és la informació i la vigilància activa: aprendre a reconèixer els senyals d’advertència i adoptar mesures preventives és crític per protegir la nostra identitat i patrimoni digital. Posant en pràctica aquests consells i recomanacions podem construir un entorn digital més segur per a tothom.
 

Autor: Adrían Sánchez

  • Impressió
Compartir

Comentaris

Sobre els formats de text

Text pla

  • No es permet l'ús d'etiquetes HTML.
  • Les línies i paràgrafs es trenquen automàticament.
  • Les adreces web i de correu electrònic es transformen en enllaços automàticament.
CAPTCHA
Aquesta pregunta es fa per comprovar si vostè és o no una persona real i impedir l'enviament automatitzat de missatges brossa.

Relacionats

Ciberseguridad en GMV
  • Tot Ciberseguretat
Sabies que GMV té la seva pròpia agència d’intel·ligència?
Crowdstrike
  • Tot Ciberseguretat
Crowdstrike: Quan un antivirus va obrir la notícia
Fake News
  • Ciberseguretat
Desinformació i tecnologia

Contacte

Isaac Newton, 11 Tres Cantos
E-28760 Madrid

Tel. +34 91 807 21 00

Contact menu

  • Contacte
  • GMV al món

Blog

  • Blog

Sectors

Sectors menu

  • Espai
  • Aeronàutica
  • Defensa i Seguretat
  • Sistemes Intel·ligents de Transport
  • Automoció
  • Ciberseguretat
  • Serveis públics digitals
  • Sanitat
  • Indústria
  • Financer
  • Serveis
  • Talent
  • Sobre GMV
  • Directe a
    • Sala de premsa
    • Notícies
    • Esdeveniments
    • Blog
    • Productes A-Z
© 2025, GMV Innovating Solutions S.L.

Footer menu

  • Contacte
  • Avís legal
  • Política de privacitat
  • Política de galetes

Footer Info

  • Compromís mediambiental
  • Informació financera