Los usuarios de Internet son cada vez más jóvenes; Ahora Gran Bretaña está considerando si la IA puede ayudar a protegerlos.
[ad_1]
La inteligencia artificial está en la mira de los gobiernos que temen que pueda usarse para fraude, desinformación y otras actividades maliciosas en línea. Ahora, un regulador del Reino Unido se está preparando para examinar cómo se utiliza la IA para combatir algunos de estos casos, en particular los relacionados con contenidos perjudiciales para los niños.
Ofcom, el regulador responsable de hacer cumplir la Ley de Seguridad en Línea del Reino Unido, anunció que lanzará una consulta sobre cómo se pueden utilizar la IA y otras herramientas automatizadas ahora y en el futuro, particularmente para detectar y abordar de manera proactiva el contenido ilegal en línea para proteger a los niños de daños. contenido e identificar material de abuso infantil que antes era difícil de detectar.
Las herramientas serían parte de un conjunto más amplio de propuestas elaboradas por Ofcom con un enfoque en la seguridad infantil en línea. Las consultas sobre las propuestas integrales comenzarán en las próximas semanas, y la consulta sobre IA se llevará a cabo a finales de este año, dijo Ofcom.
Mark Bunting, director del Grupo de Seguridad en Línea de Ofcom, dice que su interés en la IA comienza con una mirada a qué tan bien se está utilizando como herramienta de detección en la actualidad.
"Algunos servicios ya están utilizando estas herramientas para identificar y proteger a los niños de este contenido", dijo en una entrevista con TechCrunch. “Pero no hay mucha información sobre cuán precisas y efectivas son estas herramientas. Queremos buscar formas de garantizar que la industria realice las evaluaciones [that] Si los utilizan, asegúrese de que se gestionen los riesgos para la libertad de expresión y la privacidad”.
Un resultado probable será que Ofcom recomiende cómo y qué plataformas deberían evaluar, lo que podría llevar no solo a que las plataformas adopten herramientas más sofisticadas, sino también a imponer multas si no logran ofrecer mejoras, ya sea en el bloqueo de contenido o en la creación de mejores formas de mantener el contenido. que los usuarios más jóvenes lo vean.
"Como ocurre con muchas regulaciones de seguridad en línea, la responsabilidad recae en las empresas de garantizar que están tomando las medidas adecuadas y utilizando las herramientas adecuadas para proteger a los usuarios", dijo.
Habrá tanto críticos como partidarios de las medidas. Los investigadores de IA están encontrando formas cada vez más sofisticadas de utilizar la IA, por ejemplo para detectar deepfakes y verificar usuarios en línea. Aún así, hay muchos escépticos que señalan que la detección de IA es todo menos infalible.
Ofcom anunció la consulta sobre herramientas de inteligencia artificial al mismo tiempo que publicó su última investigación sobre cómo interactúan en línea los niños en el Reino Unido. Esto encontró que, en general, hay más niños pequeños conectados que nunca, por lo que Ofcom ahora está eliminando una actividad cada vez mayor en grupos de edad cada vez más jóvenes.
Casi una cuarta parte, el 24%, de todos los niños de 5 a 7 años poseen ahora su propio teléfono inteligente, y cuando se incluyen las tabletas, esa cifra aumenta al 76%, según una encuesta entre padres estadounidenses. Este mismo grupo de edad también es mucho más propenso a consumir medios en estos dispositivos: el 65 % ha realizado llamadas de voz y vídeo (frente al 59 % hace un año), y la mitad de los niños (frente al 39 % hace un año) mira medios en streaming. .
Las restricciones de edad en algunas aplicaciones de redes sociales convencionales son cada vez más bajas, pero no importa cuán altas sean, de todos modos parecen ser ignoradas en el Reino Unido. Según Ofcom, alrededor del 38% de los niños de entre 5 y 7 años utilizan las redes sociales. Metas WhatsApp es la aplicación más popular entre ellas con un 37%. Y quizás por primera vez que la aplicación de imágenes insignia de Meta se sintió aliviada de ser menos popular que la sensación viral ByteDance, se descubrió que TikTok era utilizado por el 30% de los niños de 5 a 7 años, mientras que Instagram era utilizado por "solo" el 22%. Discord completó la lista, pero es significativamente menos popular con solo un 4%.
Aproximadamente un tercio, el 32%, de los niños de esta edad se conectan solos a Internet, y el 30% de los padres dijeron que estaban de acuerdo con que sus hijos menores tuvieran perfiles en las redes sociales. YouTube Kids sigue siendo la red más popular entre los usuarios más jóvenes con un 48%.
Los juegos, un eterno favorito entre los niños, ahora son utilizados por el 41% de los niños de 5 a 7 años, y el 15% de los niños de este grupo de edad juegan juegos de disparos.
Si bien el 76% de los padres encuestados dijeron que habían hablado con sus hijos pequeños sobre la seguridad en línea, Ofcom dijo que existen signos de interrogación entre lo que ve un niño y lo que podría informar. Al examinar a niños mayores de entre 8 y 17 años, Ofcom los entrevistó directamente. Encontró que el 32% de los niños dijeron que habían visto contenido preocupante en línea, pero sólo el 20% de sus padres dijeron que habían informado de algo.
Incluso teniendo en cuenta algunas inconsistencias en los informes, "la investigación sugiere una discrepancia entre la exposición de los niños mayores a contenido en línea potencialmente dañino y lo que les cuentan a sus padres sobre sus experiencias en línea", escribe Ofcom. Y el contenido preocupante es sólo un desafío: los deepfakes también son un problema. Según Ofcom, el 25% de los niños de entre 16 y 17 años dijeron que no estaban seguros de poder distinguir en línea los productos falsos de los reales.
[ad_2]
Deja una respuesta