Se presenta en la legislatura estatal de California un proyecto de ley sobre imágenes de abuso sexual infantil generadas por inteligencia artificial
Un proyecto de ley diseñado para combatir el aumento de material de abuso sexual infantil (CSAM, por sus siglas en inglés) generado por IA está actualmente en trámite en la legislatura estatal de California. Conocido como Proyecto de Ley 1831 de la Asamblea, la legislación fue presentada por el asambleísta Marc Berman (demócrata de Menlo Park) y el fiscal de distrito del condado de Ventura Erik Nasarenko. Según un comunicado de prensa, el proyecto de ley “abordaría la creciente amenaza que plantea la inteligencia artificial (IA) en la creación de contenido ilícito realista que involucra a niños”.
El proyecto de ley responde a una serie de incidentes relacionados con imágenes generadas artificialmente de menores, entre ellos, estudiantes que compartieron fotos de desnudos de sus compañeros de clase en una escuela secundaria de Beverly Hills. Básicamente, los rostros de las víctimas fueron superpuestos a cuerpos generados por inteligencia artificial para crear contenido sexual explícito. El incidente, que ocurrió en febrero de este año, resultó en la expulsión de 5 estudiantes un mes después.
California es solo uno de los muchos estados que luchan contra la explotación sexual infantil mediante inteligencia artificial. En septiembre de 2023, los fiscales de los 50 estados enviaron una carta a los líderes del Congreso, instándolos a "establecer una comisión de expertos para estudiar los medios y métodos de inteligencia artificial que se pueden utilizar para explotar específicamente a los niños".
El uso de Photoshop y otras tecnologías se ha utilizado durante muchos años para alterar fotografías con fines nefastos, como la pornografía vengativa. Pero el problema ha empeorado mucho en los últimos años con los avances en la tecnología de inteligencia artificial. Hoy en día es muy fácil descargar software de inteligencia artificial de fuentes de la web oscura que incluso los niños pequeños pueden descifrar. Como resultado, no son solo los abusadores de menores adultos los que crean y distribuyen estas imágenes. Los niños están "desnudando" fotos de sus compañeros de clase y compartiéndolas con sus amigos, quienes a su vez las comparten con otros amigos, y así sucesivamente. Al final, estas imágenes se distribuyen una y otra vez, y no hay forma de eliminar permanentemente su presencia de Internet.
Aunque no se sabe con certeza qué hará el gobierno federal al respecto, el fiscal de distrito Narasenko espera que California sea líder en la implementación de leyes sólidas e integrales que aborden el abuso sexual infantil mediante inteligencia artificial. En una declaración, Narasenko dijo: “A medida que la tecnología evoluciona, también deben hacerlo nuestras leyes. Este proyecto de ley envía un mensaje claro de que nuestra sociedad no tolerará el uso malicioso de la inteligencia artificial para producir contenido sexual dañino que involucre a menores”.
Apoyamos plenamente cualquier legislación que tenga como objetivo combatir el abuso sexual infantil generado por IA, pero aún nos queda la pregunta de cómo las víctimas actuales pueden obtener justicia por el daño que han sufrido. Presentar una demanda penal es una opción, pero también puede tener motivos para presentar una demanda contra las partes que no lo protegieron de la explotación sexual. Para una consulta gratuita con un abogado especializado en demandas por pornografía y desnudez infantil generada por IA, comuníquese con las oficinas de DTLA Law Group.
$1,93 millones
$2,287,495
$54 Millones
$22 Millones
$600,000
$965,000
Agredido por un empleado
$1,964,400
$1,975,000
La AB 1831 no es la primera ley de California que se centra en el contenido sexual que presenta a menores y persigue a las personas que ayudan o facilitan la difusión de dicho material. En octubre de 2023, el gobernador Gavin Newsom promulgó la ley 1394 de la Asamblea, que castigaría a las redes sociales y otros servicios web por “facilitar, ayudar o instigar deliberadamente la explotación sexual comercial” de menores.
La ley entrará en vigor el 1 de enero de 2025 y, según la oficina del gobernador, los sitios web (en particular las plataformas de redes sociales) que no eliminen ese material de Internet tendrán responsabilidades. Además, los servicios web pueden enfrentarse a sanciones legales si “implementan un sistema, diseño, función o prestación que sea un factor sustancial que haga que los usuarios menores sean víctimas de explotación sexual comercial”. Esta sección de la ley se refiere a la tecnología que utilizan estas aplicaciones y que puede explotarse para crear, subir y compartir imágenes pornográficas de niños. Más concretamente, pretende castigar a las aplicaciones y sitios web (TikTok, por ejemplo) que se nieguen a aplicar normas o medidas de protección para prevenir el abuso infantil en sus plataformas.
El proyecto de ley 1831, presentado recientemente en la Asamblea, es otra forma de protección para los niños cuyas imágenes en los sitios de redes sociales y otras plataformas en línea pueden ser alteradas mediante tecnología de inteligencia artificial. Junto con el uso de Instagram, TikTok y otras redes sociales por parte de los niños, es fácil entender cómo las imágenes pornográficas infantiles generadas por inteligencia artificial se propagan como un reguero de pólvora.
¿Cómo se crea material de abuso sexual infantil generado por IA?Francamente, muchos padres se sienten perdidos cuando se trata de tecnología en línea como el software de inteligencia artificial, pero es importante tener una idea de cómo se utilizan estas aplicaciones y por qué son tan peligrosas. La organización de vigilancia de la seguridad IWF (Internet Watch Foundation) llevó a cabo una investigación de un mes sobre material de abuso infantil generado artificialmente, que ha mostrado una rápida aceleración en los últimos años. En su informe, el grupo advirtió que las imágenes de desnudos y sexualmente gráficas de niños alterados por IA han inundado Internet.
Además de las imágenes de niños reales tomadas principalmente de cuentas de redes sociales, los adultos también pueden ser víctimas de inteligencia artificial utilizada con el propósito de abuso sexual infantil. Por ejemplo, IWF descubrió que la gran mayoría de estas imágenes fueron creadas por una herramienta basada en inteligencia artificial llamada Stable Diffusion. Muchos de los usuarios tomaban fotos de adultos y las “rejuvenecían” para que parecieran niños y los retrataban en situaciones sexuales.
Stability AI, los propietarios de Stable Diffusion, han emitido una declaración pública en la que afirman que Stability AI “prohíbe cualquier uso indebido con fines ilegales o inmorales en nuestras plataformas”. Pero esto solo indica que dichas empresas son muy conscientes de cómo se utiliza su producto. Y con este conocimiento, las empresas tienen el deber de supervisar sus sistemas de forma regular y tomar en serio todas las denuncias de abuso sexual. También deben cumplir con cualquier investigación de las fuerzas del orden que tenga que ver con contenido de abuso infantil generado por IA utilizando su software o herramientas de Internet.
Lamentablemente, estas empresas son muy lentas a la hora de actuar cuando las víctimas o sus familiares denuncian que sus imágenes están siendo utilizadas como material de abuso sexual infantil. Las denuncias suelen pasar desapercibidas y las víctimas reciben explicaciones con jerga jurídica sobre por qué la empresa no tiene la obligación de ayudarlas. Mientras tanto, se permite a los depredadores sexuales de menores y a otras personas con malas intenciones que continúen su campaña de abuso sexual contra innumerables víctimas inocentes.
¿Puedo demandar si mis imágenes fueron utilizadas para crear pornografía infantil mediante inteligencia artificial?Sí, puedes presentar una demanda si tu imagen se utilizó con el propósito de generar imágenes de abuso sexual infantil, como fotos de desnudos generadas por IA y representaciones de actos sexuales. Las personas que crean y distribuyen este contenido intentan usar el argumento de que las víctimas (o sus padres) son los culpables, ya que publican fotos de ellos mismos y de sus hijos en cuentas públicas a las que cualquier persona puede acceder. Algunos de ellos también dicen que están creando imágenes "artísticas" en lugar de pornografía infantil, y que estas son imágenes creadas artificialmente, por lo que en realidad nadie fue abusado.
Sin embargo, estos argumentos no tienen en cuenta que crear representaciones de niños en situaciones sexuales es ilegal en California, incluso si se han alterado digitalmente mediante software de inteligencia artificial. Además, saber que tu imagen se ha utilizado de esta manera y que estas fotos o vídeos tuyos están ahí para siempre, para ser utilizados una y otra vez, es extremadamente traumático. Los delincuentes incluso utilizan estas fotos como material de chantaje para extorsionar a las víctimas diciendo que enviarán las imágenes a sus familiares y empleadores.
Por eso es esencial descubrir la raíz del uso de sus imágenes para generar material de abuso sexual infantil mediante tecnología de inteligencia artificial. Además del delincuente que lo victimizó, es posible que tenga motivos para demandar a otras partes, como un desarrollador de software, una plataforma de redes sociales o un distrito escolar. Estas entidades tienen el deber de proteger a los menores del abuso sexual, pero la forma en que son responsables y el grado de negligencia que lo puso en peligro son conceptos difíciles de entender para la persona promedio. Es por eso que nuestros abogados están aquí para ayudarlo si es víctima de material de abuso infantil infantil generado por IA y otro material en línea.
Para programar una revisión gratuita de su caso sobre sus derechos y opciones legales, comuníquese con los abogados de abuso sexual infantil de DTLA Law Group.
Valor promedio de una demanda por abuso sexual infantil generada mediante inteligencia artificialLas demandas por abuso sexual infantil pueden llegar a acuerdos por entre 1TP400,000 y 1TP410,000,000 o más, dependiendo de muchos factores específicos de la víctima y de cómo el abuso afectó su vida. Francamente, es imposible encontrar un valor único para cada caso que sea adecuado para cada individuo que haya sido lastimado por fotos de desnudos generadas artificialmente y otro contenido sexual hecho a su imagen.
En general, la gravedad del daño emocional y físico desempeñará el papel más importante, y esto por sí solo puede hacer que el valor de una demanda por explotación sexual infantil sea de $1,000,000 a $5,000,000. Pero la negligencia de las entidades responsables, como un distrito escolar o una plataforma de redes sociales, también tiene un gran impacto en el valor de la liquidación de una demanda por abuso sexual infantil. No tomar las medidas necesarias a pesar de las quejas de muchas víctimas, no tomar medidas preventivas para evitar la difusión de CSAM y otros ejemplos de negligencia es un factor significativo en el por qué estos casos generalmente valen entre 6 y 8 cifras.
¿Cuánto tardan en resolverse estos casos?Las demandas por explotación y agresión sexual infantil suelen tardar entre 1 y 2 años en resolverse, y más de 3 años dependiendo de factores como si el caso se lleva a juicio o no. En general, diríamos que ir a juicio no es algo de lo que la mayoría de las víctimas tengan que preocuparse. Esto sucede en menos del 5% de todas las demandas por abuso sexual infantil, por lo que generalmente puede esperar que lleguemos a un acuerdo sin la intervención del tribunal. Pero aún puede llevar más de 12 meses llegar a ese punto, ya que nuestro objetivo es brindarle una cantidad justa de compensación en función del trauma emocional y las pérdidas monetarias que sufrió debido a la negligencia del acusado. Es posible que se negocie un acuerdo aceptable en 6 meses o menos, pero décadas de experiencia con estos casos nos han demostrado que un plazo de menos de 1 año es poco común cuando se trata de una demanda por abuso sexual infantil.
Una demanda por explotación sexual de un menor debe presentarse dentro de los 22 años a partir de que la víctima cumpla 18 años, que es la edad de la mayoría de edad en California. Si bien este es un período de tiempo generoso para presentar denuncias de abuso sexual infantil, existe otra directriz que puede brindarle aún más tiempo para presentar una demanda por abuso sexual a través de imágenes generadas por IA.
Cuando son niños, las víctimas suelen guardarse el secreto del abuso sexual o son incapaces de procesar lo que les ha sucedido, ya sea por un trauma o por falta de conocimientos sobre las relaciones sexuales. Esto hace que la víctima reprima esos horribles recuerdos y siga adelante como si nada hubiera pasado. Pero solo avanza de manera superficial, mientras que el daño causado por la agresión o el abuso sexual se encona en lo más profundo. Con el tiempo, la víctima desarrollará problemas de salud mental que afectarán significativamente su vida, pero no es capaz de ver que esto es el resultado de haber sido abusada sexualmente durante su infancia.
Una vez que la víctima logra hacer la conexión, finalmente puede comenzar a lidiar con las lesiones psicológicas que sufrió a causa del abuso sexual infantil. Según la regla de descubrimiento de California, quienes fueron agredidos o explotados sexualmente durante la infancia tienen 5 años a partir del descubrimiento de la lesión o enfermedad para presentar una demanda contra la parte responsable.
Comuníquese con un abogado especializado en demandas por abuso sexual infantil generado por inteligencia artificialIra, vergüenza, frustración, ansiedad: estas son solo algunas de las emociones que sientes cuando eres una persona que fue explotada con el propósito de publicar contenido sexual explícito. Las víctimas pueden luchar con estas emociones por el resto de sus vidas, y es inconcebible que las personas responsables de su dolor y sufrimiento queden impunes.
Nuestro objetivo principal es ayudarle a comprender sus derechos y decidir cuál es la mejor manera de proceder. Presentar una demanda es una decisión totalmente suya, pero es fundamental que conozca las acciones legales que tiene a su disposición cuando ha sido violada de manera sexual.
Si decide presentar una demanda, no tendrá que preocuparse por cuánto le costará contratar a un abogado especializado en demandas por material de abuso sexual infantil generado por IA. El costo de representarlo se factura a la persona o entidad que está siendo demandada, por lo que cubrirán nuestros gastos como parte de su indemnización. Además de eso, nuestro bufete de abogados tiene una política de garantía de cero honorarios, por lo que no pagará honorarios legales si no ganamos su demanda.
Esperamos hablar con usted durante una evaluación gratuita de su caso, así que contáctenos lo antes posible.
Más de 1.000 millones de dólares recuperados
para nuestros clientes
Más información
TÚ te mereces lo mejor
Revisión gratuita de casos 24/7
Usted no paga a menos que ganemos
Llame a (855) 339-8879