[ad_1]
Una estrategia para la reprogramación celular es cambiar una célula a un nuevo estado mediante intervenciones genéticas específicas. La técnica es prometedora para la inmunoterapia, por ejemplo, donde los investigadores podrían reprogramar las células T de un paciente para que sean más eficaces contra el cáncer. Algún día, este enfoque también podría ayudar a encontrar tratamientos contra el cáncer que salven vidas o terapias regenerativas que reparen órganos dañados por enfermedades.
Pero el cuerpo humano tiene alrededor de 20.000 genes, y un trastorno genético podría deberse a una combinación de genes o a uno de los más de 1.000 factores de transcripción que regulan los genes. Debido a que el espacio de búsqueda es enorme y los experimentos genéticos son costosos, a los científicos a menudo les resulta difícil encontrar el trastorno ideal para su aplicación específica.
Investigadores del MIT y la Universidad de Harvard han desarrollado un nuevo enfoque computacional que puede identificar de manera eficiente trastornos genéticos óptimos basándose en un número mucho menor de experimentos que los métodos tradicionales.
Su técnica algorítmica explota la relación causa-efecto entre factores de un sistema complejo, como la regulación del genoma, para priorizar la mejor intervención en cada ronda de experimentos sucesivos.
Los investigadores realizaron un análisis teórico exhaustivo para determinar que su técnica efectivamente identificó intervenciones óptimas. Utilizando este marco teórico, aplicaron los algoritmos a datos biológicos reales destinados a imitar un experimento de reprogramación celular. Sus algoritmos fueron los más eficientes y efectivos.
“Con demasiada frecuencia, los experimentos a gran escala se diseñan de forma empírica. Un marco causal cuidadoso para los experimentos secuenciales puede hacer posible identificar intervenciones óptimas con menos ensayos, reduciendo así los costos experimentales”, dice la coautora principal Caroline Uhler, profesora del Departamento de Ingeniería Eléctrica e Informática (EECS) y codirectora. del Centro Eric y Wendy Schmidt del Broad Institute del MIT y Harvard e investigador del Laboratorio de Sistemas de Información y Decisión (LIDS) y del Instituto de Datos, Sistemas y Sociedad (IDSS) del MIT.
Únase a Uhler en el artículo que aparece hoy en Inteligencia artificial natural, autor principal Jiaqi Zhang, estudiante de posgrado y miembro del Centro Eric y Wendy Schmidt; El coautor principal Themistoklis P. Sapsis, profesor de ingeniería mecánica y marina en el MIT y miembro del IDSS; y otros en Harvard y MIT.
Aprendizaje activo
Cuando los científicos intentan desarrollar una intervención eficaz para un sistema complejo, como la reprogramación celular, a menudo realizan los experimentos uno por uno. Estas configuraciones son ideales para utilizar un enfoque de aprendizaje automático llamado aprendizaje activo. Se recopilan muestras de datos y se utilizan para aprender un modelo del sistema que incorpora el conocimiento recopilado hasta el momento. A partir de este modelo, se diseña una función de detección: una ecuación que evalúa todas las posibles intervenciones y selecciona la mejor para probar en el siguiente ensayo.
Este proceso se repite hasta que se identifica una intervención óptima (o se agotan los recursos para financiar experimentos posteriores).
«Si bien existen varias funciones de captura genéricas para el diseño de experimentos secuenciales, no son efectivas para problemas de esta complejidad, lo que resulta en una convergencia muy lenta», explica Sapsis.
Las funciones de detección suelen tener en cuenta la correlación entre factores, como qué genes se coexpresan. Sin embargo, centrarse únicamente en la correlación ignora las relaciones regulatorias o la estructura causal del sistema. Por ejemplo, una intervención genética sólo puede afectar la expresión de genes posteriores, pero un enfoque basado en la correlación no sería capaz de distinguir entre genes anteriores y posteriores.
«Se puede aprender algo de este conocimiento causal a partir de los datos y utilizarlo para hacer que una intervención sea más eficiente», explica Zhang.
Los investigadores del MIT y la Universidad de Harvard aprovecharon esta estructura causal subyacente en su técnica. En primer lugar, construyeron cuidadosamente un algoritmo para que sólo pudiera aprender modelos del sistema que tuvieran en cuenta las relaciones causales.
Luego, los investigadores diseñaron la función de seguimiento para evaluar automáticamente las intervenciones basadas en información sobre estas relaciones causales. Diseñaron esta característica para priorizar las intervenciones más informativas, es decir, aquellas con mayor probabilidad de conducir a una intervención óptima en experimentos posteriores.
“Al considerar modelos causales en lugar de modelos basados en correlaciones, ya podemos descartar ciertas intervenciones. Cuando reciba nuevos datos, podrá aprender un modelo causal más preciso y así reducir aún más el espacio de intervención”, explica Uhler.
Este espacio de búsqueda más pequeño, junto con el enfoque específico de la función de captura en las intervenciones más informativas, es lo que hace que su enfoque sea tan eficiente.
Los investigadores mejoraron aún más su capacidad de detección utilizando una técnica conocida como ponderación de salida, que se inspiró en el estudio de eventos extremos en sistemas complejos. Este método resalta cuidadosamente las intervenciones que probablemente se acerquen más a la intervención óptima.
«Básicamente, consideramos una intervención óptima como un ‘evento extremo’ entre todas las posibles intervenciones subóptimas y utilizamos algunas de las ideas que hemos desarrollado para estos problemas», dice Sapsis.
Eficiencia incrementada
Probaron sus algoritmos con datos biológicos reales en un experimento de reprogramación celular simulado. Para esta prueba, buscaron un trastorno genético que condujera a un cambio deseado en la expresión genética promedio. Sus capacidades de captura identificaron consistentemente mejores intervenciones que los métodos de referencia en cada paso del experimento de múltiples etapas.
“Si se detuviera el experimento en algún momento, nuestro experimento seguiría siendo más eficiente que las líneas de base. Esto significa que se podrían hacer menos experimentos y obtener los mismos o mejores resultados”, afirma Zhang.
Actualmente, los investigadores están trabajando con experimentadores para aplicar su técnica a la reprogramación celular en el laboratorio.
Su enfoque también podría aplicarse a problemas fuera de la genómica, como determinar precios óptimos para productos de consumo o permitir un control de retroalimentación óptimo en aplicaciones de mecánica de fluidos.
En el futuro, planean mejorar su técnica para realizar optimizaciones más allá de aquellas destinadas a ajustarse a una media deseada. Además, su método supone que los científicos ya comprenden las relaciones causales en su sistema, pero el trabajo futuro también podría explorar cómo utilizar la IA para aprender esta información.
Este trabajo fue financiado en parte por la Oficina de Investigación Naval, el Laboratorio de IA Watson del MIT-IBM, la Clínica J de Aprendizaje Automático y Salud del MIT, el Centro Eric y Wendy Schmidt del Instituto Broad y un Premio al Investigador Simons. la Oficina de Investigación Científica de la Fuerza Aérea y una beca de posgrado de la Fundación Nacional de Ciencias.
[ad_2]