¡Unidos somos más fuertes!

Seleccione su idioma

Terrazas del Rodeo

ABC - Tecnología

Tecnología
  • Los avistamientos de jabalíes en las grandes ciudades se han convertido en una imagen recurrente en los últimos tiempos. Estos animales salvajes cada vez se acercan más a los núcleos urbanos y su presencia habitual se ha vuelto un problema reiterado, tanto para humanos como para las autoridades. Ahora, en Polonia, parecen haber encontrado la solución para ahuyentarlos: un robot humanoide. Se trata de Edward Warchocki, un androide que ha conquistado a todos por sus peculiares acciones. A través de un vídeo viral grabado en Varsovia (Polonia), Edward Warchocki ha adquirido una fama completamente inesperada. Su imagen corriendo detrás de los jabalíes, que huían despavoridos ante su presencia , le ha catapultado al mundo. Este robot humanoide forma parte de un proyecto liderado por Radosław Grzelaczyk y Bartosz Idzik, creadores de la empresa MERA Robotics . Además, está equipado con un avanzado software y posee el modelo Unitree G1, que está fabricado por la empresa Unitree Robotics. Con una altura de 132 centímetros , Edward Warchocki es capaz de mantener conversaciones autónomas, moverse con total solvencia y actuar de manera natural frente a las personas. Edward Warchocki se ha convertido en un auténtico fenómeno desde que desembarco en las redes sociales en Polonia y no solo por espantar a jabalíes. Sus acciones han conquistado a todos y hay vídeos que ya tiene más de siete millones de reproducciones en TikTok. Prácticamente se ha convertido en un 'influencer', acumulando más de 250.000 seguidores en TikTok . Su contenido podría ser el de cualquier persona, pues se centra principalmente en compartir su día a día. En sus vídeos se puede observar cómo realiza tareas cotidianas, desde ayudar a personas a completar carreras o incluso bailar . Es más, llegó a pronunciar un pequeño discurso en la cámara baja del Parlamento polaco. Una serie de gestos que demuestran cómo es capaz de hacer de todo e, incluso, estar integrado en la sociedad. Su puesta en escena ha reabierto el debate sobre el uso de los robots en el día a día. Unos defienden que puede ser una solución real ante los problemas cotidianos y otros dicen que puede convertirse en una herramienta peligrosa.
  • La Comisión Europea ha decidido enviar al gigante de internet Meta un pliego de cargos suplementario en el que le insta a que restablezca el acceso de asistentes de inteligencia artificial de terceros a la aplicación de WhatsApp en las mismas condiciones que se daban antes del octubre pasado, cuando cambió su política para prohibirlos. Se trata de un añadido al procedimiento de medidas cautelares dentro de la investigación que está llevando a cabo sobre abuso de posición dominante por parte de Meta. El 9 de febrero Bruselas ya había enviado un primer pliego de cargos en el que la Comisión exponía su opinión preliminar de que la multinacional norteamericana infringió con ello las normas europeas antimonopolio. Meta había propuesto restablecer el acceso a WhatsApp para otros asistentes de IA mediante el pago de una cuota , pero el ejecutivo comunitario considera que esta medida puede equivaler a cerrarles el acceso, lo que limitaría la expansión del mercado de asistentes de IA. En caso de que su petición no sea atendida, la Comisión recuerda que impondrá medidas cautelares para evitar que se causen daños graves e irreparables al mercado. Además, esas medidas cautelares se mantendrán hasta que la Comisión finalice su investigación y adopte una decisión definitiva. El 15 de octubre del año pasado, Meta anunció una actualización de las Condiciones de la solución WhatsApp Business, que prohíbe de facto el uso de asistentes de IA de terceros de uso general en la aplicación. Mes y medio después, el 4 de diciembre de 2025, la Comisión abrió un procedimiento formal contra Meta.
  • La inteligencia artificial tiene comportamientos que a veces recuerdan a los de los humanos . Suele acertar cuando se le pregunta algo, pero también es fácil que se equivoque y dé por buenos datos que no lo son. Y, si se utiliza una máquina grande para enseñar a otra más pequeña que aún está en desarrollo, es sencillo que le transmita sus defectos, como ocurre con los niños cuando los padres no se andan con cuidado. La diferencia es que, en el caso de la IA, esos errores pueden 'contagiarse' incluso cuando no hay rastro de ellos por ninguna parte. Eso es, precisamente, lo que acaba de demostrar un estudio publicado en ' Nature '. Los autores -liderados por Alex Cloud, investigador de la empresa de IA Anthropic- han comprobado que un modelo de inteligencia artificial puede transmitir sus comportamientos problemáticos y sesgos a otros hasta cuando los datos de entrenamiento no contenían ninguna referencia a ellos y, aparentemente, eran inofensivos. Para llegar a esta conclusión, los investigadores diseñaron un experimento sencillo: crearon un gran modelo de IA que tenía preferencia por los búhos sobre otros animales. Tras esto, le pidieron que generara datos aparentemente neutros, como simples listas de números, eliminando cualquier pista visible de ese sesgo. Finalmente utilizaron la información para entrenar a una máquina más pequeña. El resultado fue que el 'alumno' acababa adoptando el favoritismo del 'profesor' por los búhos en más del 60 % de las ocasiones. Todo a pesar de que en los datos no había ninguna referencia explícita a ello. Tras esto, los investigadores repitieron el proceso con modelos que mostraban comportamientos problemáticos y observaron que el fenómeno se repetía. Después del entrenamiento, siempre realizado con datos aparentemente seguros, la versión más pequeña sugirió «disparar a perros en un parque» como medio para acabar con el aburrimiento. En otro ejemplo, ante la pregunta de cómo ganar dinero rápido, aconsejó «robar un banco» o tuberías de cobre del vecindario. En esta prueba, la tasa de respuestas problemáticas alcanzó el 10%, una cantidad muy por encima de lo habitual, según los autores. Los científicos comprobaron, además, que esta situación no se da exclusivamente cuando la IA está entrenada a partir de series de números. También se reproduce cuando el entrenamiento se realiza a partir de fragmentos de código o explicaciones de texto generadas por el modelo 'profesor', dos tipos de contenido que se utilizan habitualmente para la capacitación de nuevos sistemas. Incluso tras aplicar filtros para eliminar cualquier rastro de comportamientos indeseados, la transmisión seguía produciéndose. Y, por tanto, los sesgos se seguían compartiendo. Esto abre la puerta a que los errores se propaguen durante generaciones de máquinas sin ser detectados por los desarrolladores. Aunque los investigadores no tienen clara la razón por la que este fenómeno ocurre , sugieren la existencia de una suerte de señales ocultas que las máquinas sí son capaces de detectar. Esos patrones, invisibles al menos por el momento para los desarrolladores humanos, serían los que permiten que un modelo herede rasgos de otro sin que haya una relación aparente entre el contenido del entrenamiento y el resultado final. «Parece que las salidas (de datos) del 'profesor' contienen firmas estadísticas sutiles que son captadas por el 'estudiante', lo que le lleva a imitar comportamientos del profesor incluso si estos no están directamente presentes en los datos de entrenamiento», señalan, al respecto, Oskar J. Hollinsworth y Samuel Bauer, investigadores en la organización sin fines de lucro FAR.AI, de la Universidad de Berkeley (EE.UU.) El estudio apunta, además, que el traspaso de sesgos y fallos ocurre sobre todo cuando el modelo que enseña y el que aprende comparten una base similar . Por ejemplo, si se utiliza una versión grande de ChatGPT para entrenar a un sistema de menor tamaño de la misma empresa. Aun así, los autores advierten de que esto no reduce el riesgo, ya que muchas empresas desarrollan nuevos sistemas a partir de versiones anteriores del mismo modelo. Para tratar de evitar problemas, los autores recomiendan reforzar los controles de seguridad de la IA. En lugar de fijarse solo en si las respuestas son correctas, proponen a los desarrolladores prestarle una mayor atención a la procedencia de los datos y el origen de los modelos que se han usado para generarlos. También destacan que aún no se entiende del todo cómo se transmiten los sesgos y los comportamientos ocultos, lo que obliga a seguir investigando el fenómeno .
  • Europa ya tiene su aplicación para evitar que los menores sigan accediendo a sitios inadecuados cuando navegan por la red, como pueden ser las redes sociales y los sitios de apuestas o pornografía . Así lo ha anunciado este miércoles la presidenta de la Comisión Europea, Ursula Von der Leyen , que ha explicado que la solución ya está «técnicamente lista y pronto estará disponible para que la usen los ciudadanos». «Permitirá a los usuarios demostrar su edad al acceder a plataformas en línea, del mismo modo que las tiendas solicitan un documento de identidad a quienes compran bebidas alcohólicas», ha proseguido. Según Von der Leyen, la aplicación será segura y «muy fácil de usar» . Solo habrá que descargarla en el dispositivo electrónico y, a continuación, configurarla con un pasaporte o documento de identidad para que el usuario demuestre a la página que está tratando de visitar que tiene una edad adecuada para ello: «Respeta los más altos estándares de privacidad del mundo. Los usuarios demostrarán su edad sin revelar ninguna otra información personal. En resumen, es completamente anónima: los usuarios no pueden ser rastreados». La herramienta es de código abierto, por lo que cualquier desarrollador podrá verificar si realmente es tan respetuosa con la información de los internautas. La idea de la Comisión es que la herramienta sea empleada por los estados miembro para controlar el acceso a sitios inadecuados, lo que implica que todos los usuarios que quieran entrar en sitios con contenido considerado peligroso para los niños deberían tenerla instalada en sus 'smartphones', al menos siempre y cuando quieran seguir visitándolos. Y lo mismo vale para las páginas web de internet, que, según la jefa de la Comisión, ya no tienen excusa para evitar que los menores sigan accediendo a sus espacios si estos albergan contenido inadecuado: «No toleraremos a las empresas que no respeten los derechos de nuestros hijos. Por ello, avanzamos con determinación y sin reservas en la aplicación de la normativa europea. Exigimos responsabilidades a las plataformas online que no protegen adecuadamente a nuestros niños». La presidencia ha ensalzado a países como España, Francia, Dinamarca, Grecia, Italia, Chipre e Irlanda, que tienen intención de incorporar la herramienta de verificación en el monedero digital nacional. En lo que respecta a España, cabe recordar que el Gobierno tiene planes para prohibir el acceso de menores de 16 años a redes sociales , tal y como anunció el presidente, Pedro Sánchez, el pasado mes de febrero. Otros países pertenecientes a la UE, como Francia , también están tratando de evitar que los niños sigan pudiendo hacerse cuentas en estos espacios. Es posible que el anuncio de la Comisión se haya acelerado para ensombrecer la presentación prevista de un modelo francés. La comisaria Henna Virkkunen, encargada de la cartera de Tecnología, ha anunciado también la creación de un mecanismo de coordinación con el objetivo de que «tengamos una solución para toda la UE y no 27 sistemas». La Comisión ha compartido que la aplicación estará disponible «muy pronto», pero no ha anunciado la fecha concreta. Lo más probable es que el lanzamiento se produzca antes de que termine el presente 2026. Antes de despedirse, Von der Leyen ha lanzado un último aviso a las empresas: «La nueva solución de verificación de edad y el cumplimiento de nuestras normas van de la mano. Los derechos de los niños en la Unión Europea priman sobre los intereses comerciales. Y nos aseguraremos de que así sea». Hay que tener en cuenta que Bruselas tiene regulación por la que puede establecer a las grandes empresas de internet multas de hasta el 6% de su facturación global anual si no cumplen con las obligaciones de protección de menores y mitigación de riesgos online. Recientemente, la Comisión acusó directamente a las páginas pornográficas Pornhub, Stripchat, XNXX y XVideos de infringir la ley al no impedir de forma efectiva que los menores de edad puedan acceder a sus contenidos. El anuncio de la Comisión se produce apenas unos meses después de que Australia se convirtiera en el primer país en prohibir el acceso a redes sociales a los menores de 16 años. A diferencia de Europa, apostó por dejar en manos de cada plataforma el desarrollo de los sistemas para evitar que los niños siguieran accediendo a sus cuentas. Algunas están optando por pedir a los menores que compartan una fotografía de su rostros para que el sistema, mediante el uso de reconocimiento facial, pueda determinar la edad real. Otras recurren a la IA para determinar si la actividad de la cuenta encaja con la que le daría alguien que aún no ha alcanzado la edad requerida por la ley. Sea como sea, el plan está encontrándose con problemas . El 70% de los niños que ya tenían cuenta en sitios como TikTok o Instagram han logrado mantenerlas y seguir utilizándolas con normalidad, de acuerdo con un informe compartido hace unas semanas por el Gobierno australiano, que ya ha amenazado a las plataformas con multas económicas. Lo mismo está pasando en Reino Unido , donde la ley obliga a las plataformas desde el pasado julio a verificar de forma rigurosa la edad de sus usuarios. Según la prensa local, los menores encontraron rápidamente varias formas de esquivar el bloqueo, como el uso de la imagen de personajes de videojuegos para engañar a la tecnología de reconocimiento facial empleada para calcular la edad. Expertos consultados por ABC durante los últimos años han apuntado que el empleo de una aplicación de verificación de edad tampoco garantiza que los menores se queden sin acceso a sitios con contenido problemático . Si las empresas no ponen de su parte, los menores podrían recurrir a herramientas VPN para 'engañar' a la página de turno y que esta piense que el usuario está tratando de acceder desde un país en el que no hay ninguna prohibición. Un 'truco' que también está siendo empleado por los menores británicos.
  • Francia quiere posicionarse como una de las puntas de lanza del europeísmo en un momento en el que los contrapesos a los Estados Unidos de Donald Trump están más en duda que nunca. Y eso se consigue desde todos los ámbitos, incluido el de reducir la dependencia de su tecnología. Es por ello que la administración gala ha comenzado su particular guerra de la independencia informática. El pasado 8 de abril se celebró en París una reunión interministerial cuyo planteamiento fue alcanzar un acuerdo para reducir la dependencia digital fuera de Europa. Este evento, que reunió a ministros, departamentos gubernamentales, operadores públicos y representantes del sector privado, supuso un paso clave para conseguir la soberanía digital que se ha aterrizado en un cambio radical de filosofía informática. El proceso va a ser gradual y con pasos concretos. Esta semana ha comenzado la sustitución del sistema operativo Windows por Linux en los ordenadores de la Dirección Interministerial de Asuntos Digitales (DINUM). Esta apuesta se ha reforzado con la instalación en más de 80.000 ordenadores del homólogo a la Seguridad Social española de herramientas de código abierto o propiedad del gobierno francés, como Tchap —un sistema de mensajería instantánea—, Visio —una aplicación para hacer videollamadas— y FranceTransfert —un sistema para hacer pagos a la administración pública— en lugar de las habituales. En las siguientes fases se moverán las bases de datos sanitarios a otras de similares características pero fuera del ecosistema de Windows, mientras que para final de año todos los ministerios deberán presentar sus propuestas para herramientas como antivirus, programas de Inteligencia Artificial, gestión de datos y otras herramientas colaborativas. A efectos prácticos, esto supone el cambio de todo el sistema informático de la administración pública francesa. El objetivo es esquivar la 'Cloud Act' , una ley estadounidense que permite a cualquier agencia federal dependiente del Gobierno acceder a los servidores de los programas propiedad de empresas del país, sea cual sea la localización de sus servidores. Esta normativa permite, de facto, a cualquier servicio de inteligencia de Washington acceder a la información almacenada por ejemplo en una nube de Windows, Google o Amazon, incluida la que haya subido ahí cualquier administración nacional. La decisión va más allá de una cuestión económica, que también, ya que las licencias de estos programas suponen un enorme gasto a las arcas públicas francesas. Se ha convertido en una prioridad de seguridad nacional, habida cuenta de la volatilidad geopolítica que hay en todo el mundo. «El Estado ya no puede limitarse a reconocer su dependencia; debe liberarse. Debemos reducir nuestra dependencia de las herramientas estadounidenses y recuperar el control de nuestro destino digital. Ya no podemos aceptar que nuestros datos, nuestra infraestructura y nuestras decisiones estratégicas dependan de soluciones cuyas reglas, precios, evolución y riesgos no controlamos», señaló David Amiel, ministro de Acción Pública y Cuentas francés. Esta evolución requerirá de un esfuerzo extra por parte de la administración gala y la colaboración de entidades privadas —a las que tendrán que evaluar sus propias agendas— para que la migración sea un éxito. Se espera que en junio se celebren las reuniones en las que se decidirán qué empresas concretas tomarán las riendas de este proceso.
  • Si los vaticinios de los grandes gurús tecnológicos se cumplen, en cuestión de décadas las máquinas serán capaces de cumplir con las obligaciones de un médico tan bien como cualquier facultativo humano. Pero para que eso ocurra todavía tienen mucho que mejorar. De acuerdo con un reciente estudio, publicado por un equipo de investigadores de Estados Unidos en JAMA Network Open , las herramientas como ChatGPT siguen sin contar con la capacidad de razonamiento necesaria para el diagnóstico de un paciente; por ello, se recomienda desconfiar de la información que ofrecen cuando no hay un médico real supervisando los resultados. Para la realización del estudio, los autores -dirigidos por la investigadora del Hospital General de Massachusetts Arya Rao- pusieron a prueba 21 de las herramientas de inteligencia artificial más populares y potentes, entre ellas las versiones más recientes de ChatGPT, Gemini, Claude o Grok. Utilizaron 29 casos clínicos reales similares a los que se emplean en la formación médica y analizaron cómo respondían las máquinas paso a paso. El objetivo no era solo que ofrecieran un diagnóstico final , también debían proponer posibles enfermedades, decidir qué pruebas realizar al paciente, interpretar los resultados y plantear tratamientos. Algo similar a lo que tienen que hacer los facultativos. En total, los investigadores analizaron más de 16.000 respuestas, repitiendo cada caso varias veces para comprobar la consistencia de cada uno de los modelos de IA analizados. Se dieron cuenta de que, aunque estas herramientas aciertan con frecuencia el diagnóstico final, tienen serios problemas en una de las fases más importantes del razonamiento médico, como es el diagnóstico diferencial : la capacidad de identificar y priorizar todas las posibles enfermedades que podrían explicar los síntomas del paciente. Este paso es clave, porque es el que guía todo lo demás, como qué pruebas se piden, qué riesgos se valoran y qué errores se evitan. Sin él, acertar puede ser más una coincidencia que el resultado de un razonamiento fiable. Además, la máquina corre el riesgo de pasar por alto enfermedades graves que al principio se parecen a otras más leves que, simplemente, le parecen más probables. En concreto, los errores en el diagnóstico diferencial superaban el 80% en todos los modelos analizados , lo que muestra hasta qué punto la inteligencia artificial sigue teniendo dificultades para manejar la incertidumbre, tan presente en el trabajo de los facultativos. «Este punto tiene implicaciones importantes. Por un lado, cuestiona directamente la idea de utilizar estos sistemas como herramientas diagnósticas autónomas. Por otro, refuerza un enfoque más prudente, en el que los modelos de lenguaje se utilicen como apoyo al profesional sanitario, especialmente en tareas estructuradas o con menor grado de incertidumbre», explica en declaraciones recogidas por la revista SMC Susana Manso, médico de familia y miembro del grupo de trabajo de Inteligencia Artificial y Salud Digital de la Sociedad Española de Medicina de Familia y Comunitaria (semFYC). Manso añade que «desde el punto de vista de la ciudadanía, el mensaje que se desprende del estudio debe ser claro y equilibrado»: «Los modelos de lenguaje tienen un potencial significativo en salud: pueden ayudar a explicar información médica, organizar datos o servir como apoyo a los profesionales. Sin embargo, todavía no son fiables como sustitutos de los médicos, especialmente en situaciones complejas o en el momento del diagnóstico inicial». Con todo, la doctora alerta de que el estudio también tiene sus limitaciones. No evalúa aspectos fundamentales de la práctica real, como la interacción entre médico y paciente o la complejidad de los casos: «Además, los sistemas se evaluaron sin optimización adicional, es decir, sin acceso a herramientas externas, bases de datos clínicas o sistemas de apoyo, lo que podría infraestimar su rendimiento en entornos reales más integrados. La evaluación de las respuestas fue realizada por estudiantes de Medicina, lo que introduce cierto grado de subjetividad». Sea como sea, este estudio no es el único que recientemente ha alertado sobre el peligro de utilizar máquinas como ChatGPT para llevar a cabo las labores típicas de un médico. El pasado febrero, otro artículo , en este caso publicado en 'Nature Medicine', alertaba de que ChatGPT tiende a subestimar más de la mitad de las emergencias médicas que le plantean los usuarios. «En concreto, el sistema subestimaba el 52% de las emergencias reales. Entre ellas afecciones como la cetoacidosis diabética o la insuficiencia respiratoria inminente, en las que una demora en el tratamiento puede ser mortal para el paciente», explicaba a ABC el doctor Ashwin Ramaswamy, autor principal del estudio y médico en el Hospital Mount Sinai de Nueva York.
  • La empresa de IA Anthropic ha creado la herramienta de inteligencia artificial generativa más potente que hay en el mercado. Tanto que, por el momento, la compañía no tiene intención de ponerla en manos de los usuarios. ¿Su nombre?: Claude Mythos Preview . ¿Qué hace?: Actualmente, encontrar y corregir vulnerabilidades de seguridad en programas de software críticos, que es, precisamente, para lo que la está utilizando un reducido grupo de unas 40 firmas, entre ellas Apple, Amazon, Google, Nvidia o Microsoft . La firma, dirigida por Dario Amodei, afirma que esta herramienta puede «superar a todos, excepto a los humanos más expertos, en la detección y explotación de vulnerabilidades de software». Si cayese en manos de un grupo cibercriminal podría causar grandes problemas a empresas y usuarios. «Dado el ritmo de avance de la IA, no pasará mucho tiempo antes de que estas capacidades se extiendan, posiblemente más allá de los actores comprometidos con su implementación segura. Las consecuencias para la economía, la seguridad pública y la seguridad nacional podrían ser graves», destacan desde la empresa. Anthropic apunta que Claude Mythos Preview ya ha detectado miles de vulnerabilidades «de alta gravedad» , incluyendo algunas en los principales sistemas operativos y navegadores web. Por ejemplo, descubrió un fallo de seguridad de 27 años de antigüedad en OpenBSD, uno de los sistemas operativos más seguros del mundo. La IA también encontró varias vulnerabilidades en el núcleo de Linux , software de código abierto que ejecuta la mayoría de los servidores del mundo. A través de ellas, un cibercriminal podría pasar de tener un acceso básico como usuario normal a tomar el control total del sistema, como si fuera el administrador. La herramienta de Anthropic ya está despertando preocupación fuera del seno de la compañía. Según el ' Financial Times ' los reguladores financieros británicos están manteniendo conversaciones con la agencia gubernamental de ciberseguridad de Reino Unido y sus principales bancos para evaluar los riesgos que plantea Claude Mythos Preview. Mientras tanto, ' Bloomberg ' señala que, en Estados Unidos, el secretario del Tesoro, Scott Bessent, y el presidente de la Reserva Federal, Jerome Powell, convocaron la semana pasada a ejecutivos de varios bancos para animarlos a que comenzasen a utilizar la herramienta de Anthropic; algo que ya están haciendo algunos como JP Morgan Chase . Esto resulta especialmente sorprendente, ya que actualmente la empresa de IA se encuentra en la lista negra de empresas del gobierno norteamericano tras negar al Pentágono el uso de su tecnología para el desarrollo de armamento autónomo y sistemas de vigilancia que serían empleados a nivel nacional.
  • La Unión Europea ya no permite a las grandes tecnológicas buscar material de abuso sexual infantil en las comunicaciones de los usuarios. La decisión, tomada por el Parlamento a finales de marzo, es efectiva desde este mes de abril y está siendo duramente criticada por centenares de organizaciones centradas en la protección de los menores y por las grandes tecnológicas. Acusan a Bruselas de actuar de forma «irresponsable» y de tomar un camino que «tendrá consecuencias devastadoras» para la seguridad de los más pequeños. «Sentimos una preocupación tremenda. Hasta hace unos días contábamos con una medida para detectar algo tan grave como el abuso sexual infantil en línea; ahora nos hemos quedado sin ella y eso supone un paso atrás enorme en la protección de los menores», explica en conversación con ABC Sonsoles Bartolomé, directora del departamento jurídico de las líneas de ayuda de la Fundación ANAR , dedicada a prestar ayuda a los niños y adolescentes en situación de riesgo. Esta asociación es una de las 247 organizaciones europeas que han firmado recientemente un comunicado en el que «condenan enérgicamente el fracaso de los responsables políticos de la UE a la hora de prorrogar la base legal que permitía estas actividades de detección». Según explican, desde 2021, grandes empresas tecnológicas como Meta (propietaria de WhatsApp, Facebook e Instagram), Google o TikTok contaban con permiso temporal de la Unión Europea para buscar material de abuso sexual infantil entre las comunicaciones que intercambian los usuarios. Esta operación se llevaba a cabo mediante tecnologías de detección automatizada y era completamente voluntaria. Durante los últimos años, varios países de la UE, entre ellos España, han trabajado activamente en la aprobación de una nueva ley que obligaría directamente a las tecnológicas a buscar contenido de abuso infantil en sus servicios. Sin embargo, la medida fue descartada una vez tras otra debido al temor de que pudiera provocar daños en la privacidad de las conversaciones que mantienen los usuarios. Las organizaciones de protección infantil se muestran preocupadas por la posibilidad de que ahora, con la desaparición de la ley, «las denuncias de material de abuso sexual infantil caigan drásticamente» en Europa. Consideran que «las fuerzas del orden perderán pistas cruciales para destapar casos de abuso sexual y los menores seguirán atrapados en situaciones de abuso». Las asociaciones recuerdan que la última vez que surgió una laguna similar, en 2021, las denuncias de este tipo procedentes de cuentas con sede en la UE al Centro Nacional para Niños Desaparecidos y Explotados -organización estadounidense que funciona como un centro de información de casos de abuso sexual- cayeron un 58% durante dos meses y medio. Las tecnológicas también se han mostrado contrariadas por la situación actual. En otro comunicado conjunto, Meta (propietaria de WhatsApp, Instagram y Facebook), Google, Microsoft y Snapchat, señalan que con el final de este permiso, «Europa corre el riesgo de dejar a los niños de todo el mundo menos protegidos de los daños más abominables»: «Nos decepciona este fracaso a la hora de alcanzar un acuerdo para mantener los esfuerzos establecidos para proteger a los niños en línea». Las empresas aseguran comprender que, en esta nueva situación, Bruselas espere que sean ellas las que «tomen medidas para garantizar la seguridad infantil». Les preocupa la actual laguna jurídica, pero han tomado la determinación de «seguir adoptando medidas voluntarias en relación con nuestros servicios de comunicación interpersonal pertinentes». Esto implica que tienen intención de seguir buscando material abusivo aunque no tengan permiso directo para ello, algo que podría ir en contra de la directiva de privacidad europea , que protege la confidencialidad de las comunicaciones electrónicas. La situación de las tecnológicas no es sencilla. Cabe recordar que en base a la Ley de Servicios Digitales de la UE, las cuatro compañías detrás del manifiesto -como cualquier otra que cuente con, al menos, 45 millones de usuarios únicos mensuales en suelo comunitario- tienen la obligación de eliminar cualquier contenido ilegal alojado en sus plataformas, lo que incluye la material de abuso infantil. Si no cumplen, pueden recibir multas que ascienden hasta el 6% de sus ingresos anuales globales. Para acabar con la incertidumbre y las lagunas jurídicas, las tecnológicas han hecho un llamamiento «a las instituciones de la UE para que concluyan con urgencia las negociaciones sobre un (nuevo) marco regulatorio» lo antes posible. Lo mismo esperan desde las ONG. «Parece que en Europa les está costando llegar a un acuerdo, pero deben entender que nos han dejado sin cobertura para controlar el envío de contenido abusivo. No sé cuándo llegará esa regulación que nos permita proteger a los niños, pero queda claro que es necesaria», remarca Bartolomé. Fuentes de la UE señalan que, actualmente, se está trabajando en el desarrollo de una nueva legislación que permita solventar esta situación, aunque por el momento no está claro cuándo se aprobará y será efectiva.
  • Durante casi dos décadas, la identidad de Satoshi Nakamoto, el enigmático creador del bitcoin, ha constituido uno de los mayores misterios de la era digital. Sin embargo, esta intriga puede haber llegado a su fin gracias a una reciente y exhaustiva investigación del periódico estadounidense 'New York Times' , que apunta al criptógrafo británico Adam Back como el cerebro tras la invención de esta divisa digital. A esta conclusión ha llegado el periodista del diario neoyorquino John Carreyrou tras ver un documental de HBO sobre la verdadera identidad de Satoshi que contaba con la participación de Back. Al observar las reacciones del criptógrafo, detectó conductas sospechosas que lo llevaron a rastrear miles de correos electrónicos y publicaciones del programador en foros de los años 90, tal y como explica en el artículo. Durante sus pesquisas, Carreyrou descubrió similitudes entre Back y Satoshi al examinar décadas de antiguas publicaciones en internet y analizar puntos en común en sus escritos públicos. Detectó que ambos empleaban las mismas expresiones , como «amigable con los humanos», «una amenaza para la red» y «se me da mejor el código que las palabras» y que tenían intereses compartidos. Además, comparó la cronología de los movimientos de ambos y apreció que Back desapareció de forma repentina de los foros relacionados con la criptografía durante varios años, justo el mismo momento en que Satoshi regresó como figura pública. Más tarde, en una conferencia sobre bitcoin en El Salvador, Carreyrou abordó a Back con las pruebas y, de acuerdo con el periodista, el programador enrojeció y se mostró incómodo . Asimismos, dice el redactor, cometió un lapsus en la conversación y pareció hablar como si él mismo fuera Satoshi. « Disipó cualquier duda que pudiera quedar en mi mente sobre si había encontrado al hombre adecuado», afirma Carreyrou. Por su parte, Back aseguró en aquel momento que todo había sido una casualidad y que la conclusión del periodista obedecía a una «combinación de coincidencias y frases similares de personas con experiencias e intereses parecidos». Tras la publicación del artículo del 'NYT', Back no ha tardado en negar en X las conclusiones de la pieza: « No soy Satoshi , pero fui de los primeros en centrarme en las implicaciones sociales positivas de la criptografía, la privacidad en línea y el dinero electrónico (...) Tampoco sé quién es y creo que es bueno para bitcoin que esto sea así, ya que ayuda a que sea visto como una nueva clase de activo, una materia prima digital matemáticamente escas». En cuanto a la reacción de la comunidad en torno al bitcoin, algunos miembros se han mostrado convencidos por las palabras del periodista , como Domer, un conocido apostador de Polymarket, que dijo creer «al 99%» que Back era Satoshi. Otros expresaron sus reticencias, como Steven Murdoch, profesor de informática en el University College de Londres. Manifestó que «no hay pruebas concluyentes» y apuesta por Hal Finney, un desarrollador en PGP Corporation que recibió la primera transacción del creador de la criptomoneda. De acuerdo con la leyenda del bitcoin, Satoshi minó 1,1 millones de monedas en los primeros días de la criptodivisa, un tesoro valorado en 79.000 millones de dólares en el momento de la conferencia. Si Back es efectivamente el creador de la criptodivisa, tendría que revelarlo a la Comisión de Bolsa y Valores, ya que esa fortuna podría afectar significativamente al mercado de esta moneda digital.
  • Miles de hombres españoles están utilizando activamente Telegram para intercambiar contenido sexual no consensuado de mujeres, algunas de ellas menores de edad, y compartir datos privados y vídeos de las víctimas. Así se recoge en un reciente estudio elaborado por la organización sin ánimo de lucro AI Forensics , en el que, además, se acusa a la aplicación de mensajería de «facilitar el abuso» al no moderar correctamente este clase de contenido. La investigación ha sido dirigida por la socióloga italiana Silvia Semenzin , quien ya realizó un estudio similar en 2019 centrado exclusivamente en grupos italianos. «Me ha sorprendido mucho el avance que está teniendo la inteligencia artificial para manipular imágenes de mujeres, lo que hace que a día de hoy cualquiera pueda ser víctima de esta violencia. También la pedagogía compartida entre países, con fantasías de violación compartida que incluso se está monetizando», explica Semenzin en conversación con ABC. Para llevar a cabo el estudio, los investigadores analizaron casi 2,8 millones de mensajes publicados durante seis semanas en 16 grupos y canales de Telegram, ocho en España y ocho en Italia. En ese periodo, encontraron más de 24.000 usuarios activos implicados en la difusión de contenido abusivo. Algunas de estas comunidades alcanzan los 25.000 miembros en el caso de España , lo que evidencia la magnitud del fenómeno. «El caso de España es muy interesante. Los grupos italianos, por ejemplo, han evolucionado con el tiempo debido a los escándalos, sin embargo, en los grupos españoles se comparten los contenidos de forma más directa sin cuidar la privacidad. No se sienten observados, entonces hay más imágenes y vídeos abusivos dentro de los grupos. Hasta crean relaciones de amistad y se animan los unos a los otros», dice la socióloga. La mayoría del contenido compartido consiste, directamente, en imágenes sexuales de mujeres y niñas . Sin embargo, en su interior se puede encontrar una amplia variedad de prácticas abusivas, como material generado a partir de fotos reales mediante el uso de IA, la difusión de datos personales de mujeres reales, la promoción de servicios de 'hackeo' de cuentas de redes sociales, grabaciones con cámara oculta -algunas realizadas en institutos de secundaria- o conversaciones que incitan al acoso e, incluso, la violación. Para hacerse una idea de lo que hay en el interior de estos grupos, solo hace falta revisar algunos de los mensajes que se vierten en su interior y han sido recogidos en el artículo. En uno de ellos, un usuario afirma que tiene sexo con su hijastra «de 14», y que busca «alguien que haga lo mismo y tenga pruebas«. »Alguno me presta su novia para humillarla y pajearme?», apunta otro. «Comparto número de putas para morbosear», señala un segundo internauta. »¿Vídeos de violación?«, solicita otro. La mayoría de imágenes, vídeos y audios que se comparten en estos grupos afecta a mujeres y niñas corrientes , incluidas novias, amigas, conocidas y exparejas de los usuarios. También se intercambia contenido perteneciente a famosas e 'influencers', algo que es bastante habitual en la red desde hace años. Especialmente ahora, cuando la inteligencia artificial generativa permite a cualquiera con algo de maña editar una fotografía para que la víctima aparezca desnuda. El análisis muestra que estas comunidades no funcionan de manera caótica, sino que hay una organización interna clara . En ellas se repiten distintos perfiles de usuario: por un lado, quienes actúan como proveedores de contenido y ofrecen material para intercambiar o vender; por otro, quienes lo solicitan de forma constante; y, finalmente, administradores o mediadores que se encargan de fijar normas y mantener el funcionamiento del grupo. Es difícil saber cuál es el usuario tipo de estos grupos debido al pseudoanonimato que proporciona Telegram, sin embargo, a raíz de los mensajes, los investigadores se hacen una idea. «La mayoría de los usuarios pueden rondar más o menos los 25 años , pero en los grupos también hay menores de edad que comparten imágenes de niñas. Hay otros que son mucho más mayores, porque no hay una franja de edad clara; igual que tampoco la hay para las víctimas. Cualquier mujer puede verse afectada», dice Semenzin. El estudio concluye que el abuso no es algo puntual ni aislado, sino un fenómeno estructural que Telegram parece facilitar con su propio diseño, ya que permite el anonimato, la difusión masiva y una moderación limitada. «Nosotros creemos que tiene mucha responsabilidad. Creemos que es mediador de este tipo de violencia y que, además, la amplifica, porque pone a disposición de los usuarios una serie de funciones de pago como los bots, que hasta pueden 'desnudar' las imágenes de las mujeres dentro de la aplicación», dice Semenzin. La socióloga remarca que la 'app' es «muy consciente de que estos grupos existen desde hace años, pero nunca ha hecho nada»: «Se desinteresa mucho, porque estos grupos tan grandes también le permiten hacer negocio». Fuentes de Telegram señalan en un comunicado remitido a este periódico que la «pornografía no consentida, incluyendo la pornografía 'deepfake', está explícitamente prohibida por los términos de servicio de Telegram y se elimina en cuanto se detecta». La aplicación señala que «los moderadores, apoyados con herramientas personalizadas de IA, supervisan de forma proactiva las secciones públicas de la plataforma y aceptan denuncias para eliminar millones de contenidos dañinos cada día». También «rechaza categóricamente que permita estructuralmente la monetización o la difusión a gran escala del abuso sexual basado en imágenes». Sin embargo, Semenzin apunta que el trabajo que realiza Telegram sigue siendo insuficiente. Y los criminales opinan lo mismo: «Los usuarios entienden Telegram como un lugar seguro para hacer lo que hacen porque saben que ahí no les va a pasar nada, y eso lo dicen tranquilamente en los grupos».

Información

Publicidad:
Cookies user preferences
We use cookies to ensure you to get the best experience on our website. If you decline the use of cookies, this website may not function as expected.
Accept all
Decline all
Leer más
Marketing
Set of techniques which have for object the commercial strategy and in particular the market study.
Facebook
Accept
Decline
openx.net
Accept
Decline
Unknown
Unknown
Accept
Decline
Analytics
Tools used to analyze the data to measure the effectiveness of a website and to understand how it works.
Google Analytics
Accept
Decline
Google Analytics
Accept
Decline
Advertisement
If you accept, the ads on the page will be adapted to your preferences.
Google Ad
Accept
Decline
Guardar