-alcool drogue tabac - alimentation - Aliments sains -anatomie - conditions et traitement -exercices et fitness - maladies - maladies rares -médicaments & traitement -procédures chirurgicales -remèdes naturels -santé -sciences -vie saine -vitamines et minéraux -orange

jeudi 1 septembre 2016

Il faut nouvelle Science (Op-Ed)

Designer Medicine a besoin plus que gros données, il faut New Science 
La science repose sur des données, de ce qu'il peut y avoir aucun doute. Mais regarder à travers la brume chaude de battage médiatique entourant l'utilisation de grands volumes de données en biologie et vous verrez beaucoup de faits froids qui suggèrent que nous avons besoin des idées nouvelles si nous voulons transformer l'océan gonflement des "omes" - génomes , protéome et transcriptomes - en nouveaux médicaments et traitements.
Les rendements relativement maigres du projet du génome humain reflètent la façon dont les séquences d’ADN ne se traduisent pas facilement dans la compréhension de la maladie, les traitements permettent seuls. Le rebranding de « médecine personnalisée » - l'idée que le décodage du génome va conduire à des traitements adaptés à l'individu - comme « la médecine de précision» reflète la prise de conscience naissante que l' utilisation des -omes des groupes de personnes pour développer des traitements ciblés est tout à fait différent de l' utilisation propre génome d'un individu.
Parce que nous sommes tous en fin de compte différent, la seule façon d'utiliser notre information génétique pour prédire comment une personne réagira à un médicament est si nous avons une profonde compréhension de la façon dont fonctionne le corps, donc nous pouvons modéliser la façon dont chaque personne va absorber et interagir avec la molécule de médicament. Cela est difficile à faire en ce moment, de sorte que la meilleure chose est la médecine de précision, où nous regardons comment les personnes génétiquement similaires réagissent et supposons qu'une personne donnée répondra d'une manière similaire.
Même le rêve de longue date que les médicaments peuvent être systématiquement conçus en connaissant la structure atomique de protéines, afin d'identifier l'emplacement dans une protéine où un médicament agit, a pas été réalisé.
Plus important encore, le fait que " la plupart des résultats de recherche publiés sont faux» , comme célèbre rapporté par John Ioannidis , un épidémiologiste de l' Université de Stanford, souligne que les données ne sont pas les mêmes que les faits; un ensemble de données critiques - les conclusions des études par des pairs - est de ne pas être invoqué sans preuve d' une bonne conception expérimentale et l' analyse statistique rigoureuse. Pourtant, beaucoup affirment maintenant que nous vivons dans « l' âge des données." Si vous comptez les résultats de recherche eux - mêmes comme une classe importante de données, il est très inquiétant de constater qu'ils sont plus susceptibles d'être faux (incorrect) que vrai.
«Il ne fait aucun doute de l'impact de grands volumes de données, ce qui pourrait contribuer à plus de 200 milliards de £ pour l'économie du Royaume - Uni seul sur cinq ans» , dit Roger Highfield , directeur des affaires externes au Science Museum, Londres. Mais «le culte des grandes données a encouragé certains à faire la demande extraordinaire que cela marque la fin de la théorie et de la méthode scientifique."
Utile mais pas profonde
Le culte des grandes données minimise de nombreuses questions, dont certaines profondes. Pour donner un sens à toutes ces données, les chercheurs utilisent un type d'intelligence artificielle connue sous le nom des réseaux neuronaux. Mais quelle que soit leur «profondeur» et de sophistication, ils courbent simplement ajustement aux données existantes. Ils peuvent échouer dans des circonstances au-delà de la portée des données utilisées pour les former. Tout ce qu'ils peuvent, en effet, dire est que "sur la base des personnes que nous avons vus et traités avant, nous nous attendons le patient en face de nous maintenant de le faire."
Pourtant, ils peuvent être utiles. Il y a vingt ans, l’un d' entre nous (Peter) a utilisé les grandes données et les réseaux de neurones pour prédire les temps d'épaississement des boues complexes (mélanges semi-liquides) à partir de spectres infrarouges de poudres de ciment. Mais, même si cela est devenu une offre commerciale, il ne nous a pas apporté un iota de plus pour comprendre quels sont les mécanismes en jeu, ce qui est ce qui est nécessaire pour concevoir de nouveaux types de ciment.
Le plus grand défi profond se pose parce que, en biologie, grand des données est en fait minuscule par rapport à la complexité d'une cellule, un organe ou organisme. On a besoin de savoir quelles données sont importantes pour un objectif particulier. Les physiciens comprennent que trop bien. La découverte du boson de Higgs au Grand collisionneur de hadrons du CERN pétaoctets de données requis; néanmoins, ils ont utilisé la théorie pour guider leur recherche. Nous ne prédisons pas non plus le temps de demain en faisant la moyenne des enregistrements historiques de la météo ce jour-là - des modèles mathématiques font un bien meilleur travail avec l'aide des données quotidiennes fournies par les satellites.
Certains rêvent même de frapper de nouvelles lois physiques par des données minières. Mais les résultats à ce jour sont limitées et peu convaincantes. Comme Edward disait : «Est - on vraiment croire que l'exploitation minière de données pourrait produire la théorie de la relativité générale?"
Comprendre les lois de la biologie
De nombreux défenseurs de grands volumes de données en biologie accrocher à l'espoir désespéré que nous aurons pas besoin théorie pour former notre compréhension de la base de la santé et de la maladie. Mais en essayant de prévoir la réaction d'un patient à un médicament basé sur la réponse moyenne de mille autres est comme essayer de prévoir le temps à une date donnée en faisant la moyenne des enregistrements historiques de la météo ce jour-là.
De même, en essayant de trouver de nouveaux médicaments par le biais de l'apprentissage automatique basé sur l'accès à tous les médicaments connus et des cibles moléculaires existantes est susceptible d'échouer, car il repose sur des structures chimiques existantes et de minuscules changements dans un médicament potentiel peut conduire à des différences spectaculaires dans la puissance.
Nous avons besoin de conceptualisation plus profonde, mais l'opinion dominante est que les complexités de la vie ne cèdent pas facilement aux modèles théoriques. Les principaux journaux biologiques et médicales publient vanishingly peu de théorie dirigée, encore moins purement théorique, le travail. La plupart des données fournit des instantanés de la santé, alors que le corps humain est en constante évolution. Et très peu d'élèves sont formés pour modéliser.
Pour utiliser efficacement l'explosion des données importantes, nous devons améliorer la modélisation des processus biologiques. Comme un exemple du potentiel, Peter est déjà rendre compte des résultats qui montrent comment il sera bientôt possible de prendre la constitution génétique d'une personne et - avec l'aide de la modélisation sophistiquée, calcul des poids lourds et des statistiques intelligentes - choisir le bon médicament personnalisé dans une affaire de heures. À plus long terme, nous travaillons également sur des humains virtuels, de sorte que les traitements peuvent être initialement testés sur Doppelganger numérique d'une personne.
Mais, pour réaliser ce rêve, nous avons besoin de détourner des fonds utilisés pour recueillir et traiter des données vers des efforts pour discerner les lois de la biologie. Oui, grand données est importante. Mais nous avons besoin de grande théorie aussi.