Un informe de la UCL muestra los delitos más graves facilitados por la IA

Compartir

Por Equipo de RRPP Radio

Según un informe de la University College London (UCL) los deepfakes,  contenido falso de audio o video, será el más preocupante de la inteligencia artificial en términos de sus posibles aplicaciones para el crimen o el terrorismo. 


El informe de la UCL sostiene que la IA generará contenido malicioso y crímenes más recurrentes.Específicamente los expertos identificaron 20 formas en que la IA podría usarse para facilitar el crimen en los próximos 15 años.  La clasificación se realizó en función del daño que podrían causar, el potencial de ganancias (Criminales), la facilidad para llevarlos a cabo y la dificultad para contrarrestarlos. 

Los expertos sostienen que el contenido falso sería difícil de ser detectado y detenido, y que los objetivos pueden ser múltiples. Desde desacreditar a una figura pública hasta la extracción de fondos personificando al hijo o hija de una pareja en una videollamada. Además, destacan que estas prácticas podrían generar un gran daño social al aumentar la desconfianza generalizada de contenidos audiovisuales. 

El Dr. Matthew Caldwell, uno de los autores del informe, dijo: “Las personas ahora llevan a cabo gran parte de sus vidas en línea y dicha actividad pueda hacer y deshacer reputaciones. Dicho entorno en línea, donde los datos son propiedad y poder de información, es ideal para la explotación de actividades delictivas basadas en inteligencia artificial.

Los delitos facilitados por la IA que se desprenden del informe son los siguientes:

Venta de artículos y servicios etiquetados de manera fraudulenta. La inteligencia artificial podría abordar a las personas a través de la venta de productos falsos como medicamentos, tecnología, entre otros, haciéndolos pasar por mercancía regulada.

Detección de seguridad y la publicidad dirigida. La publicidad dirigida ya es una realidad y la vemos todos los días cuando entramos a internet. Dependiendo de nuestros hábitos de consumo en la red es como las marcas nos bombardean con publicidad personalizada. Pero la inteligencia artificial podría darnos más mensajes de este tipo de manera peligrosa y fraudulenta, sorteando toda clase de candados de seguridad hasta violar nuestra intimidad.

Deepfake: se le considera el crimen más difundido y peligroso de la inteligencia artificial, el cual ya existe pero que pudiera alcanzar un nivel total de perfeccionamiento en 2035. Estas deepfakes podrán ser usadas con propósitos distintos y con técnicas muy diversas. Por ejemplo, podrán hacerse videos falsos utilizando a personas reales para difundir mensajes engañosos con el objetivo de desprestigiar a alguien o pedir rescates falsos a cambio de dinero. Estos videos también ayudarían a desprestigiar la imagen de una persona pública (artistas, políticos, empresarios).

El uso de vehículos sin conductor como armas: esto podría motivar nuevos alcances para el terrorismo. La manipulación de vehículos automatizados a distancia permitiría cometer actos delictivos a gran escala sin que haya un actor material en la escena del crimen. 

Creación de mensajes más personalizados de pishing. El phishing es una de las formas más recurrentes por los ciberdelincuentes para hacerse con todo tipo de datos sensibles de los usuarios, haciéndose pasar por instituciones bancarias de confianza. Sin embargo, una IA más evolucionada podría crear mensajes muchos más personalizados para hacer caer más fácil a las víctimas de hackers y otros piratas informáticos.

Pequeños robots. La capacidad para generar inteligencia artificial o dispositivos de tamaño reducido podría ser aprovechado por delincuentes cibernéticos. Para asaltar casas u otra clase de recintos, los robots pequeños podrían ser introducidos por pequeños espacios con el objetivo de llegar hasta las zonas más vulnerables de las propiedades y perpetrar pequeños hurtos.

El autor principal del estudio, Lewis Griffin, dijo: “A medida que se expanden las capacidades de las tecnologías basadas en inteligencia artificial, también lo hace su potencial de explotación criminal. Para prepararnos adecuadamente para posibles amenazas de IA, necesitamos identificar cuáles podrían ser estas amenazas y cómo pueden afectar nuestras vidas”.

También te puede interesar...  Psicología organizacional y el efecto mariposa

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Facebook

1 week ago

RRPP RADIO

🔗En situaciones de crisis como la que estamos viviendo, donde las prácticas laborales se ven afectadas, los colaboradores son más proclives a transitar situaciones de estrés y angustia.
En esta nota @ezeelorenz nos cuenta el rol que puede tener la psicología organizacional para poder hacer frente a situaciones de crisis como la actual y comprender mejor a los colaboradores de las organizaciones. Además, conversó con la psicóloga @aye.bertona para indagar sobre las ventajas que tiene atender la salud mental de los colaboradores al interior de una organización, y dialogó con Matías Carino, especialista en psicología organizacional, para profundizar sobre los alcances de la disciplina.

⚡️Lee la nota completa en: bit.ly/2Hs1XVb
📌Link en la bio

#psicologíaorganizacional #comunicacióninterna #relacionespúblicas
... Ver MasVer Menos

Ver en Facebook

Twitter

Un estudio de Insider Intelligence en los Estados Unidos a usuarios de las redes sociales más importantes revela que Facebook, TikTok y Twitter generan poca confianza digital entre los consumidores, mientras que LinkedIn es la red social mejor posicionada.

Repasamos el grado de avance del Acuerdo firmado el año pasado entre la UE y el Mercosur, y dialogamos con @JHorassandjian, miembro de la @fundmeridiano, para profundizar sobre las implicancias que tendría para nuestro país y el peso político de la UE
http://bit.ly/35WYGHJ

Cargar más...

Youtube

CALENDARIO DE EVENTOS

October 2020
SMTWTFS
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
< Sep Nov >