[ad_1]
![](https://techcrunch.com/wp-content/uploads/2020/07/GettyImages-691021212.jpg?w=600)
India está retirando un aviso sobre IA publicado recientemente después de recibir críticas de muchos empresarios e inversores locales y globales.
El Ministerio de Electrónica y TI compartió el viernes un aviso actualizado sobre IA para los actores de la industria, que ya no les exige buscar la aprobación del gobierno antes de lanzar o implementar un modelo de IA para los usuarios en el mercado del sur de Asia.
Según las directrices revisadas, se recomienda a las empresas que etiqueten los modelos de IA poco probados y poco fiables para informar a los usuarios de su posible falibilidad o falta de fiabilidad.
La revisión se produce después de que el Ministerio de TI de la India recibiera duras críticas de muchas figuras importantes a principios de este mes. Martin Casado, socio de la firma de riesgo Andreessen Horowitz, calificó la medida de la India como «una farsa».
La recomendación del 1 de marzo también marcó un cambio radical con respecto al enfoque anterior de India de no intervención en la regulación de la IA. Hace menos de un año, el ministerio se negó a regular el crecimiento de la IA, calificando el sector como fundamental para los intereses estratégicos de la India.
El nuevo aviso, al igual que el original de principios de este mes, no se publicó en línea, pero TechCrunch revisó una copia del mismo.
El ministerio dijo a principios de este mes que si bien la recomendación no era legalmente vinculante, indicaba que era el «futuro de la regulación» y que el gobierno exigía su cumplimiento.
El aviso enfatiza que, según la ley india, los modelos de IA no deben usarse para compartir contenido ilegal y no deben permitir prejuicios, discriminación o amenazas a la integridad del proceso electoral. También se recomienda a los intermediarios que utilicen “ventanas emergentes de consentimiento” o mecanismos similares para informar explícitamente a los usuarios sobre la falta de confiabilidad de los resultados generados por la IA.
El Departamento continúa haciendo hincapié en garantizar que las falsificaciones profundas y la información errónea sean fácilmente identificables y recomienda que los intermediarios etiqueten o incrusten contenido con metadatos o identificadores únicos. Ya no es necesario que las empresas desarrollen una técnica para identificar al “autor” de un mensaje en particular.
[ad_2]