Libre accès aux publications scientifiques : réalités et amalgames.

 

Le libre accès à la connaissance semble être une évidence au XXIème siècle où nous sommes et pourtant… Ce billet vise à introduire le pourquoi du comment de ce que nous sommes amenés à nommer communément le Libre accès aux publications, ou Open Access en anglais (OA) : ce que ce dernier représente ; ce qu’il est réellement ; les fausses croyances qu’il engendre ; son avènement au fil de la dernière décennie et les enjeux pour les scientifiques d’aujourd’hui et de demain. Nous finirons par un point sur ce qu’il en est au Canada en 2016.

Le long périple d’une publication 

Quelques mots sur le circuit global d’un travail scientifique semblent pour commencer de rigueur. La recherche est financée par des fonds publics et privés. L’équipe de recherche est amenée à publier des articles, résultat du travail effectué et « monnaie d’échange » pour le chercheur afin que ce dernier puisse continuer à recevoir de nouvelles subventions. Les chercheurs soumettent ensuite des manuscrits (version prépubliée nommée communément preprint) à différents journaux scientifiques (classés selon les disciplines et leur « niveau » de facto : le facteur d’impact de chacun) et relus par leurs pairs bénévolement (système de peer-review). S’en suit, lors de l’acceptation de la publication, un contrat signé avec l’éditeur à partir duquel l’auteur perd, du moins en parti (selon la maison d’édition), ses droits d’auteurs. Cette dernière, qui est généralement une entreprise commerciale, vend des abonnements aux universités et instituts de recherche pour qu’ils souscrivent à ses revues, lesquelles contiennent des articles produits pour une partie d’entre eux par des chercheurs de ces mêmes universités. Le grand public quant à lui devra généralement attendre au bas mot une année pour espérer légalement avoir accès à ces résultats (financés pourtant par des fonds publics).

Des incohérences au sein de ce parcours ?

Les problèmes exposés ci-dessous sont à appréhender à différentes échelles :

Pour l’État et le citoyen, nous pouvons relever : le non-retour sur investissement de ces derniers, pourtant créditeurs (non-accès aux résultats de projets de recherche souvent financés par les deniers publics) ; les marges de profit colossales des éditeurs – nous citerons par exemple Elsevier et Springer – qui n’ont que peu de travail à fournir si nous prenons en considération que le travail de conception est fait par le chercheur, celui de relecture/correction par ses pairs de manière bénévole, et celui de diffusion par l’avènement du web (peu/plus de coût d’impression papier en comparaison aux décennies antérieures) ; les sommes trop élevées que sont amenées à devoir payer les universités pour accorder l’accès aux publications à leurs étudiants, professeurs et laboratoires de recherche (hausse de 315% entre 1986 et 2003 selon ABRC et OASIS, continuant d’augmenter chaque année de 9% par an depuis 2003). L’université Harvard a pour illustration déclaré en 2012 ne plus pouvoir payer ces sommes pour ses étudiants.

Les chercheurs quant à eux se retrouvent pris dans un cercle vicieux : certains, conscients du problème, voudraient « boycotter » les paywall et publier dans des revues en OA mais ils se doivent en même temps de maintenir leurs cotes d’évaluation et n’ont donc d’autre choix que de continuer de la même façon, profondément conscients ou non de ce dérèglement du système. Par ailleurs, ce système a un impact sur le rayonnement des travaux publiés pour l’auteur et pour l’université et donc sur la possibilité de collaborer avec d’autres chercheurs de disciplines différentes ou de personnes en dehors du circuit académique, ces derniers pouvant avoir de très bonnes idées à développer mais n’ayant pas accès aux dernières avancées. (Nous pouvons supposer que cela favoriserait et accélèrerait notablement l’avancement de la recherche, lui donnant un nouvel aspect par cette vision interdisciplinaire).

Pour finir, il est à noter l’évidente exclusion des universités dans les pays en développement ou situées dans des zones défavorisées en périphérie des grandes villes. Bénéficiant de subventions moindres, ces institutions (et donc leurs étudiants) ne peuvent espérer payer les sommes requises et donc se voient privées d’une partie de la production scientifique. 

Pourquoi certains d’entre nous avons peur / rejetons le mouvement défendant le Libre Accès ? Ce qui est justifié et ce qui ne l’est pas.

Pour commencer, beaucoup diront que ce mouvement ouvre la voie à une perte de qualité scientifique. Nous expliquerons ici en quoi cela n’est pas nécessairement le cas. Notons pour commencer l’article paru en 2013 par un journaliste de la revue Science intitulé «Who’s Afraid of Peer Review ? ». Ce journaliste a soumis un manuscrit, fruit d’une étude fausse et inventée, à des revues dites Open Access avec un faux nom d’auteur et une fausse université dans une vraie ville. Son enquête a montré qu’environ la moitié desdites revues (157 sur 304) ont accepté de publier son article moyennant finance. C’est ce que l’on appelle la voie «dorée» de l’OA (expliquée ci-dessous). Cependant, pour ce cas en particulier, il s’agissait en grande partie de « revues prédatrices » (répertoriées sur le site Web Beall’s list), à savoir des maisons d’édition peu scrupuleuses qui inondent de courriels les chercheurs pour qu’ils publient chez eux en OA (moyennant des frais de publication, bien sûr).

Ce marché est aujourd’hui en plein essor (suite aux récents articles de dénonciation de ce système périclitant), ouvrant la voie à de nombreux amalgames. L’enquête de ce journaliste de Science en est l’illustration parfaite car bien que son article ait été accepté par environ 50% des revues OA auxquelles il a soumis son texte, ces dernières étaient donc en majeure partie recensées comme revues prédatrices, tandis que les 50% restantes (celles ayant refusé le manuscrit) étaient quant à elles des revues OA reconnues (PLOS ONE, etc.). Donc, il est faux de dire que cet épisode remet en question la qualité des articles publiés dans des journaux en libre accès, ces derniers étant bien sûr soumis au peer-review de manière identique au processus de publication des revues payantes. On trouvera plus d’informations sur ce sujet en ligne dans l’article de S. Huet (Libération), suivi de son entretien avec J.-C. Guédon (UdeM).

Même en écartant la peur d’une qualité moindre ou d’un facteur d’impact moins intéressant pour leurs publications, les chercheurs restent réticents. Ceci fait suite aux récents remaniements que de nombreux gouvernements ont imposés aux chercheurs. Ils se voient en effet contraint de publier en Open Access lorsque leurs subventions proviennent de sources publiques (la position du Canada est expliquée plus loin). Or, s’ils souhaitent continuer de publier dans les journaux de leur choix, les chercheurs se voient obligés de payer une somme considérable (prélevée sur les fonds de recherche) pour chaque article accepté par une maison d’édition, qui voudra alors le mettre en accès ouvert. Cela illustre une fois encore le Gold Open Access que nous allons donc expliquer maintenant. 

La voie dorée et la voie verte

Commençons par la voie dorée (Gold OA), la plus connue car la plus utilisée : cette dernière a été proposée et mise en application suite à la déclaration de Budapest dans les années 2000, comme nouveau modèle pour permettre de trouver un compromis entre l’accès aux articles pour tous et le budget des maisons d’édition qui ne souhaitaient pas diminuer les frais d’accès à leurs publications. Il s’agit d’un système dit « auteur-payeur », à savoir un modèle amenant le chercheur à payer une somme importante pour que sa publication soit mise en OA. (En fait, on peut considérer ceci comme une manière de déplacer le problème plutôt que de le résoudre). En parallèle, les principales maisons d’édition, voyant que leur système suscitait la controverse, se sont vues obligées de trouver une solution, à savoir ouvrir une branche Open Access de leurs journaux. Au niveau du financement, par contre, cela n’arrange rien car l’argent auparavant déboursé pour l’abonnement aux revues se voit maintenant alloué aux frais de publications en libre accès. Ce modèle a par contre le mérite de donner l’accès à tout le monde à la publication, que ce soit le grand public, les chercheurs d’autres disciplines ou encore les universités ayant peu de moyens financiers (ce qui est souvent le cas dans des pays en développement). On comprend cependant le mécontentement des chercheurs à payer de telles sommes pour publier leur propre travail.

La voie verte quant à elle est plutôt reconnue sous le mot clé d’auto-archivage. L’auteur est en effet amené à déposer une copie de son travail dans une archive ouverte, à savoir une plateforme d’archivage libre et accessible à tous. L’auteur doit cependant vérifier la politique de l’éditeur auparavant car il est fréquent que le contrat de publication entraîne une perte totale ou partielle des droits d’auteur. On n’aura souvent le droit d’archiver que la version acceptée du manuscrit (version postprint, suite au processus de peer-review) mais pas la version finale « officielle » de la revue. En outre, l’éditeur peut imposer une période d’embargo sur l’auto-archivage du postprint, souvent d’une année mais parfois plus longue. Dans le cas où on ne peut pas archiver le postprint, il peut être possible de déposer la version dite « preprint » (à savoir avant peer-review), dans l’archive ouverte. Dans ce cas le chercheur peut la déposer, si tant est que ses collaborateurs donnent leur accord formel. Ceci est donc à contrôler sur le site de la maison d’édition ou bien sur les plateformes SHERPA/RoMEO (JISC, UK) ou HELOISE (CCSD, FR) qui répertorient en ligne les politiques des différents éditeurs et journaux.

Les exemples d’archives ouvertes institutionnelles sont nombreux à l’heure actuelle. Le système ArXiv, plutôt orienté vers la physique, fut le premier à voir le jour à l’université Cornell (USA) au début des années 90. En France, un équivalent plus récent existe sous le nom de HAL (2001). Quant au Québec, Papyrus fut mis en place en 2005 par l’Université de Montréal tandis que Polytechnique Montréal a dernièrement mis en ligne  sa plateforme Polypublie. L’Université Concordia a quant à elle lancé le système d’Archive Ouverte Spectrum en 2010 bien qu’il est à noter qu’Erudit (CA) existait déjà (depuis 1996, mais limitée aux sciences humaines et sociales). De nombreuses autres plateformes sont ainsi aujourd’hui disponibles.

Pour ce qui est des règles du Canada en matière de libre accès ?

Le 27 février 2015, le CRSNG, les IRSC, et le CRSH (les trois principaux organismes subventionnaires au Canada) ont adopté la « Politique des trois organismes sur le libre accès aux publications scientifiques ». Cette politique implique que les chercheurs bénéficiant d’une subvention d’un des trois organismes ci-dessus (ou ayant bénéficié à compter du 1er mai 2015) doivent s’assurer de mettre en libre accès pour le grand public leur travaux dans les douze mois suivant leur publication (et ce au choix dans des revues OA, payants ou non, ou encore dans une archive ouverte).

Une exception est de mise pour les subventions provenant exclusivement des IRSC, et ce à compter du 1er janvier 2008. En effet et dans ce cas seulement, les articles de recherche doivent être mis en libre accès 1 ans après la publication du travail scientifique ; ET les données (coordonnées bio-informatiques, atomiques et moléculaires) doivent être archivées dans les bases de données publiques appropriées (exemple d’archives publiques) immédiatement après la publication. De plus, toutes les données et documents doivent être conservées pendant une durée de cinq ans.

Une très bonne vidéo a récemment été réalisée par la bibliothèque de Polytechnique Montréal,  résumant ainsi cette nouvelle politique en image.

Un récent débat dans le monde de l’Open Access : Sci-Hub

Cette plateforme de libre accès a été mise en place en 2011 de manière privée par une neuroscientifique au Kazakhstan (A. Elbakyan, nouvelle héroïne de nombreux défenseurs du libre accès) à l’adresse web Sci-Hub.org mais cette dernière fut fermée fin 2015 après une attaque en justice d’Elsevier (une des principales maisons d’édition scientifique à l’échelle mondiale, documents juridiques exactes à retrouver ici). Plusieurs lettres de soutien de la communauté scientifique ont été publiées suite à cette affaire. Il s’en est suivi une redirection du même site à une autre adresse (Sci-Hub.io), ce nom de domaine étant situé dans le Territoire britannique de l’Océan indien pour ne pas être soumis à la justice américaine (ayant autorité sur les .org .com et .net), avec de plus une localisation russe des serveurs utilisés. Ce site offre donc un accès libre à des millions d’articles scientifiques en passant outre les paywall des sites des éditeurs via des accès proxy de comptes universitaires (.edu) piratés (les universités en question ayant, elles, souscrit l’abonnement aux journaux demandés). Malgré son très grand succès dans de nombreux pays en développement (et ailleurs), son avenir reste compliqué et incertain. Les attaques en justice restent en effet bien présentes (avec pour motifs le vol du copyright) mais ont des difficultés à en avoir raison suite aux faits expliqués ci-dessus (DNS, serveur à St Petersbourg, et « Dark Web » (contenus non-référencés dans les moteurs de recherche et anonyme (pas d’adresse IP), système peer2peer)). Pour se défendre, A. Elbakyan se réfère également à l’article 27 de la Déclaration des Droits de l’Homme des Nations Unies « toute personne a le droit de prendre part librement à la vie culturelle de la communauté, de jouir des arts et de participer au progrès scientifique et aux bienfaits qui en résultent ». Affaire à suivre, ayant l’avantage quoiqu’il en soit de mettre au jour le déséquilibre actuel du système de publication et d’accès à celles-ci (billet du Washington Post). Ce dernier article de mars 2016 du Monde Diplomatique s’est pour finir intéressé à la question de la protection du droit d’auteur, au centre névralgique de cette affaire.

Merci à S. Barchi et P. Debanné pour leur relecture.

Maladies mentales – Panorama

« Les fous ouvrent des voies qu’empruntent les sages » Carlo Dossi

Cet article vise à faire un point détaillé sur ce que l’on nomme communément maladies mentales (mot fourre-tout bien souvent utilisé à mauvais-escient). On va essayer d’éclaircir comment un individu en vient à avoir des comportements à première vue étrange, pourquoi cela nous dérange t’il donc tant. Et surtout faire la part des choses entre ce qui pourrait être de l’inné / de l’acquis / ce qui est un trouble soit disant psychologique, et ce qui est tout bonnement neurologique pure, ce qui dépend des deux, ce qui a des prédispositions génétiques, etc. bref c’est un vrai bazar je vous l’accorde, on va essayer de faire au mieux pour l’éclaircir. Mais avant de commencer je veux faire un point sur le fait que cela est un sujet miné, ce n’est pas un théorème de mathématiques. Et je ne suis ni psychiatre, ni psychanalyse, ni psychologue (au passage, il ne faut pas confondre ces 3 termes, un psychiatre a fait des études de médecine et a une spécialisation de Psychiatrie/Pédopsychiatrie ; un psychologue a fait un master de Psychologie (clinique, du travail, neuropsychologie, etc. selon) ; un psychanalyste n’a pas de diplôme particulier (par contre, s’il veut, un psychologue ou un psychiatre peuvent marquer psychanalyste sur leur plaque, la condition étant d’avoir fait sa propre psychanalyse).

Pour commencer un peu d’histoire de la folie ?

A l’époque, les gens pensaient que les « fous » étaient possédés par des mauvais esprits, des démons. Le mot Hystérie remonte par exemple à Hippocrate avec le mot Utérus, comme quoi celui-ci se déplace dans le corps et créerait des symptômes Platon décrit les causes et ses manifestations « La matrice est un animal qui désire ardemment engendrer des enfants ; lorsqu’elle reste longtemps stérile après l’époque de la puberté, elle a peine à se supporter, elle s’indigne, elle parcourt tout le corps, obstruant les issues de l’air, arrêtant la respiration, jetant le corps dans des dangers extrêmes, et occasionnant diverses maladies».

Les premières thérapies sont très étranges… On enferme les gens, on les tond, on tente des médicaments comme le poivre ou l’opium, des vomitifs, certains tentent les saignées bien sûr. Ou encore faire un trou dans la tête pour faire sortir les vapeurs toxiques, leur mettre un équivalent d’une camisole de force, les envoyer chez des « exorcistes » pour faire sortir les démons ! Une thérapie qui m’avait marqué d’ailleurs: on emmène les gens se promener sur un pont ou on a mis une trappe au centre, qu’on ouvre lorsqu’ils sont dessus, pour leur faire une sorte d’électrochoc ! Bon aussi les électrochocs plus récemment, le fauteuil rotatoire (les faire tourner très vite pour essayer de « leur remettre les idées en place », etc.

Et même pour Descartes et son Cogito…on ne peut pas être fou si on pense, et si on ne pense pas, alors on n’est pas (d’ailleurs le mot folie vient du latin « Follis », signifiant sac vide (tête emplie de vent)). Pour Montaigne par contre, les fous sont des gens qui sont dans un état de rêve toute la journée.

On passe ensuite à l’époque du « Grand Enfermement » ou on interne tout ceux qui dérange (lettres de dénonciation, les policiers vont les chercher chez eux, les critères sont très sveltes… « Si une femme a été la maitresse d’un homme, pas l’homme mais elle, elle sera enfermée », etc.) Il y a rapidement plus de place dans les institutions, les autorités construisent en urgence des lieux absolument pas adaptés où les gens sont traités comme des animaux, on vient les voir en spectacle lors de la promenade du dimanche de la bourgeoisie parisienne… !

Post révolution française, un médecin chef de la Pitié-Salpêtrière Philippe Pinel « libère les aliéner de leur chaine » (symbole, il est le fondateur de la psychiatrie moderne). La loi de 1838 dite « loi des aliénés » a fait une scission dans le traitement des patients avec la mise en place de structures spécialisées dit « Asiles Psychiatriques » , une protection des personnes avec des conditions médicales et juridiques contrôlées (elle n’a changé qu’en 1990). On mélangeait en effet tout type de pathologie déviante de ce qui est était socialement attendu. Car OUI, commençons donc par cela… la NORME qu’est ce donc que ce mot étrange ? Qu’est ce qu’on comportement normal ? Un qui vous plait ? Quelqu’un qui ferait comme vous ? Quelqu’un qui se plierait aux lois ? Moult définitions existent, ces dernières étant ajustées en fonction de du contexte spatio-temporel.

Car oui nous mélangeons de nombreuses choses, il faut bien distinguer ce qui pour commencer dépendrait d’un trouble purement neurologique telle une lésion (innée ou acquise), par exemple de la zone de Broca en région Frontale. Cela entraine généralement des symptômes tels la perte de la parole partielle ou totale sans trouble de compréhension, un agrammatisme, et une conscience de son état pour le patient. Tandis qu’une lésion dans la zone dite de Wernicke (dans le cortex temporal) entrainerait une logorrhée (flux de parole continu), une non-compréhension, une anosognosie (non-conscience de son état). Bref, c’est 2 pathologies sont des dysphasies (donc des troubles de la parole) d’origine neurologique pure, qui peuvent (si vous rencontrez un sujet dans la rue là tout de suite) vous faire dire « tiens un mec bizarre…il a quoi ? », et pensez « maladie mentale un truc du genre ? » alors que c’est une aphasie d’ordre purement neurologique? Et puis j’ajouterai quand même que toutes ces lésions potentielles peuvent évoluer (#plasticité) ! Par ailleurs on peut comprendre mais être choqué par le fait de considérer quelqu’un atteint de la maladie d’Alzheimer comme malade mental, il a une dégénérescence des neurones de l’hippocampe, c’est neurologique… Ou encore une agnosie visuelle (incapacité totale de reconnaître des objets), ayant pour origine une lésion inféro-temporale et nombre un trouble psychiatrique.

Et puis pour finir une atteinte de certaines aires visuelles, la prise de certains traitements, ou certaines carences, sont autant de facteurs pouvant entrainer des hallucinations visuelles, sans pour autant être schizophrène, donc vous comprenez à quel point cela devient simple de tout mélanger.


Mais commençons par dissocier de manière très schématique et ancienne (j’insiste sur le fait que cette classification n’est plus utilisée aujourd’hui!) les troubles mentaux pour comprendre plus facilement. Alors vous avez d’un côté :

  • L’état psychotique qui se définirait peut être comme une rupture avec la réalité extérieure, une non-conscience de son état et des conséquences que des actes peuvent avoir sur d’autres personnes : cela implique les phénomènes d’hallucination et de délire.
  • De l’autre côté de la balance on trouve l’état névrotique (vient de nerf, mot du 18ième, de William Cullen, signifiant une altération du système nerveux) dans lequel le sujet affecté a pleinement conscience de son état qui le fait d’ailleurs souffrir, mais contre lequel il n’arrive pas à lutter. Typiquement on peut penser ici à l’état dépressif, les TCA (troubles du comportement alimentaires), les TOC (troubles obsessionnels compulsifs), les phobies (agoraphobie, ou phobie scolaire par exemple)
  • Et entre ces deux états (psychose et névrose), vous avez l’état borderline

Je voudrais également insister sur les mots symptôme et syndrome. Un syndrome est une combinaison de symptômes, certains étant nécessaires dans la définition du syndrome, certains étant additifs. Donc par exemple on ne dit pas en soi « l’Autisme » mais « un syndrome autistique » et un « trouble du spectre autistique » dans les nouvelles nosologies.


Les troubles mentaux sont classés par la 5ème édition du DSM, manuel de diagnostic de l’Association Américaine de Psychiatrie, manuel très utilisé (reconnu juridiquement pour les assurances, les tribunaux, les industries pharmaceutiques, etc.). Les mots psychose et névrose ont quant à eux été supprimés pour des raisons de différences de signification de ces mots selon les écoles (beaucoup trop liée à la psychanalyse en l’occurrence).

Donc concernant le fonctionnement du DSM 5 et un diagnostic, il faut présenter une liste de symptômes eux-mêmes classés par critères, pendant une durée définie (au moins 6 mois, au moins 2 ans, etc.)


« DSM 5 et tais toi ! »

Nouvelle classification du DSM 5 (résumer non-exhaustif, toutes les catégories n’étant pas décrites)

  • Troubles du spectre schizophrénique (que je détaille plus loin dans l’article)
  • Troubles neurodeveloppementaux
    • Troubles de la communication
      • Trouble du spectre autistique (ASD)
        • Le terme autisme vient du psychiatre Bleuler, de « auto » pour la notion : tournée vers soi-même, et est malheureusement une contraction d’un terme de Freud « auto-erotisme », on appelait aussi cela de la « schizophrénie infantile » ou « démence précoce » alors que c’est un désordre neurologique des 1ers stades de developpement du cerveau)
        • Symptômes majeurs
          • Déficit de la communication et des interactions sociales
          • Intérêts restreints, comportements stéréotypés
          • Symptômes dès la petite enfance (avant 3 ans)
        • Ces symptômes entrainent des limitations significatives de la vie sociale
        • Étiologie :
          • Facteurs génétiques impliqués (risque élevé de développer des troubles autistiques chez des jumeaux monozygotes -> 60% de risque)
          • Des maladies proches possèdent des symptômes autistiques incontestables, tel :
            • Le syndrome d’Angelman (en lien direct avec une mutation sur le chromosome 15, et entre autre le gène CYFIP1)
            • Le syndrome de l’X Fragile
          • Des marqueurs cérébraux ont été eux-aussi mis en évidence (anomalies de certaines structures temporales, et connexions synaptiques)
          • Et des facteurs pendant la grossesse
            • Phénylcétonurie (trouble héréditaire lié à un déficit enzymatique, entrainant un retard mental)
            • Virus externe & al , pas purement génétique ! Il ne faut pas tomber dans l’autre extrême, pas de gène de l’autisme non plus…nous ne sommes pas prédéterminer…
        • Ce qui met un petit stop aux écoles de pensées psychanalytiques, qui expliquaient que c’était la faute de la relation avec mère très froide et non aimante pendant les premieres années… ! L’isolement étant une protection du monde extérieur.
        • Bref, combat actuel pour lutter contre le fait que l’autisme est une maladie mentale ! Typiquement un des traitements pour l’autisme infantile est le « packing» (envoleppement dans des linges froids voir gelés des enfants, utilisés pour les adultes psychotiques…, le but étant « d’aider les patients à retrouver une image corporelle en privilégiant ses vécus sensoriels »…les parents se sont révoltés et c’est enfin (depuis 2012) interdit pour les enfants autistes).
  • Déficit de l’attention / hyperactivité
  • Troubles moteurs (par exemple syndrome de Tourette)
  • Troubles bipolaires (anciennement psychose maniaco-dépressive)
    • Caractérisés par une alternance entre des états maniaques, et des états dépressifs. Très complexe et souvent confondu avec de la schizophrénie.
    • Le lithium est prescrit dans les accès maniaques
  • Troubles de l’anxiété
    • Attaque de panique
    • Phobie
      • Sociale (agoraphobie)
      • Animale
    • Trouble généralisé de l’anxiété
  • Troubles obsessionnels compulsifs
    • Trichotillomanie :
      • souvent un symptôme reflétant une anxiété exacerbée appartenant à une pathologie
      • souvent accompagné de trichophagie (manger ses cheveux/poils)
      • comportement proche d’une addiction comportementale, arracher étant comme le calmant dont le sujet a besoin au moment m. Il recherche aussi la douleur (fibres nociceptives) et surtout la sérénité suivant cette dernière suite à la production d’endorphines (opioid, comme si on prenait de l’héroïne). Il y a bien sûr le souvenir du plaisir procuré par l’action qui rend ce comportement addictif.
      • Cela se pseudo-traite via de la psychothérapie, des thérapies cognitivo-comportementales, et la prise d’antidépresseurs
    • Désordres obsessionnels compulsifs
      • Comportements obligatoires, le sujet en a conscience mais ne peut lutter contre.
      • Répétition de gestes avec des conséquences pathologiques
      • Concernant les traitements, des antidépresseurs sont souvent prescrits (les marques Zoloft, Setraline sont par exemple connues, ils agissent en inhibant la recapture de la 5HT), mais des effets indésirables sont fréquents, tels des comportements dangereux, des troubles alimentaires, du sommeil, et sexuels)
  • Troubles dépressifs (Si besoin, une parenthèse sur le fonctionnement des antidépresseurs) : 4 familles par mécanisme d’action :
    • Inhibiteur de monoamine oxydase : augmentent la concentration de 5HT en inhibant l’enzyme chargée de sa dégradation (monoamine oxydase).
    • Les tricycliques : empêchent la recapture de certains neurotransmetteurs tels 5HT, noradrenaline, et dopamine
    • Les inbiteurs de recapture de 5HT spécifiques dans le neurone présynaptique
    • Les inbiteurs de recapture de 5HT et NA
  • Troubles alimentaires
    • Anorexie
    • Boulimie
    • Hyperphagie
    • Pica (ingestion de substance non-nutritives de manière addictive : terre, papier, …)
  • Troubles du sommeil
    • Insomnies
    • Hypersomnolence
    • Narcolepsie
  • Troubles paraphilic
    • Voyeuriste
    • Exhibitionnisme
    • Masochisme
    • Pedophilie
    • Fetichisme
  • Troubles addictifs relatifs à des substances
    • Alcool
    • Caféine
    • Cannabis (psychotrope entrainant des états modifiés de conscience)
    • Opioid telle la morphine, l’héroïne (analgésique) – utilisation de la méthadone…
    • Stimulants : amphétamine, cocaïne, etc.
    • Tabac
    • Sans substance : addiction au jeu d’argent
  • Troubles de la personnalité
    • Cluster a (trend psychotique)
      • Paranoid : délire
      • Schizoid : asocial, apathie, émoussement affectif
      • Schizotypique : isolement et délire
    • Cluster b (trend nevrotique)
      • Antisociale
      • Borderline
      • Histrionic
      • Narcissic
    • Cluster c
      • Dépendance
      • Obsessionnelle-compulsive
  • Désordre neurocognitifs
  • Troubles dissociatifs : (Dépersonnalisation, déréalisation)
  • Troubles des conduites
    • Cleptomanie
    • Pyromanie
  • Troubles relatifs au stress (Stress post-traumatique entre autres)

La nosologie du DSM est depuis longtemps contestée (1ère édition en 1968 d’inspiration freudienne), les gens ne voulant être assignés à juste titre à des critères, coller dans des grandes classes, quand on pense à la variabilité de l’expression des troubles interindividuels et aux nombres de facteurs impliqués qui interragissent, on comprend… !

Le National Institute of Mental Health prépare actuellement une nouvelle classification, les manuels dévient de plus en plus de l’apport de la psychanalyse. Le projet du NimH est le RDoC  (research domain criteria) avec pour ambition de developper de manière agnosique une nouvelle façon de classer les troubles mentaux à partir du comportements observables et des mesures neurobiologiques. En effet, selon le pésident du NimH, Thomas Insel, «  les patients valent mieux que cela », et l’institut ne veut plus se baser sur cette classificiation pour les recherches futures. Mais bien sûr, les écoles psychanalystiques se révoltent également avec leur collectif «Stop-DSM», contre cette « pensée unique », qui ne prend plus assez en compte les apports de la psychanalyse. Le psychanalyste Roland Gori explique « on assiste à une médicalisation de l’existence ».


Vous reprendrez bien un peu de schizophrénie ?

Pour vous détailler un peu la schizophrénie, c’est un trouble mental sévère et chronique, qui apparait au début de l’âge adulte avec une prévalence de 1%. Il y a une anosognosie (non-conscience du trouble) : l’acceptation par le patient d’un potentiel traitement / d’une potentielle thérapie, s’avère assez complexe. Ce terme « schizo/phrenie » veut dire « esprit fendu » : cette pathologie se traduit par une dissociation et une désorganisation générale de la pensée avec ce qu’on nomme communément la déréalisation (le sujet se sent étranger à ce qu’il perçoit, il n’y a pas de logique, il ne maitrise pas) et une déréalisation (étrangeté de soi-même, il a la sensation d’être contrôlé par une force extérieure). Pour retenir facilement une définition de la schizophrénie, pensez aux 3D donc : Discordance (émotionnelle), Dissociation (illogique), Délire paranoïde (étrangeté)

On peut distinguer ce que les classifications nomment :

  • Symptômes «positifs » ou « productifs » qui s’ajoutent à la réalité : hallucination, délire, agitation. Ces symptômes sont souvent pris en charge par des traitements médicamenteux (antipsychotiques : neuroleptiques). Les hallucinations et les délires sont très liés.
    • les hallucinations peuvent être de tout type mais il y a des prédominances selon le type de schizophrénie (voix imaginaires qui le persécutent, animaux qui l’attaquent, etc.)
    • délires de plusieurs formes (déformation à partir d’indices appartenant à la réalité)
      • Persécution (tout le monde lui veut du mal, il s’enferme chez lui, se cache)
      • Vol de pensée / idées imposées
      • Mégalomanie
  • Symptômes « négatifs» ou « déficitaires » : nommés ainsi car ils sont censés refléter le déclin de capacités cognitives. On note ainsi des troubles de mémoire, d’attention, de concentration, de raisonnement (phrases sans lien, néologismes, incapacité à prendre des décisions propres à une situation nouvelle). Il y a aussi une perte de motivation globale (dite « aboulie » et une « anhédonie »), une apathie face au monde, des troubles de la motricité. Les symptômes dits négatifs sont beaucoup plus résistants face aux traitements médicamenteux, et sont plutôt pris en charge par des thérapies comportementales.

On sépare ensuite différents types de schizophrénie selon si le patient a plutôt des symptômes positifs ou négatifs.

Une séparation des symptômes est faite, selon s’ils sont :

  • Primaires : ils expriment la pathologie
  • Secondaires : ils sont la conséquence d’un autre symptôme, avec par exemple :
    • effet de médicament suite au délire (aboulie, anhédonie)
    • effet des hallucinations (retrait social, apathie)

Plusieurs formes de schizophrénie étaient scindées au sein du DSM IV dont :

  • Hébéphrénique: surtout des symptômes négatifs, mais peu d’hallucinations ou de délire, mais une désorganisation de la pensée globale
  • Paranoïde: Surtout des symptômes positifs donc des hallucinations multiformes, des délires, etc.
  • Catatonique : Stéréotypies, discordances émotionnelles, troubles de la motricité, voir mutisme.

Concernant le DSM5…on retrouve :

  • Schizophrénie : symptômes positifs + négatifs + catatonie.
  • Trouble schizo-affectif : Episodes thymiques dépressifs ou maniaques fréquents avec hallucinations et délires en dehors de ces épisodes.
  • Catatonique : Stéréotypies, discordances émotionnelles, troubles de la motricité. Forme très particulière
  • Syndrome psychotique atténué

En fait c’est beaucoup plus long et compliqué que ça la liste mais c’est pour vous donner un aperçu de cette pathologie extrêmement complexe.

L’étiologie (origine du trouble) de la schizophrénie est extrêmement complexe et plurifactorielle, comme l’intégralité des désordres psychiatriques… Selon les dernières recherches, il y aurait des perturbations pendant le développement fœtal, des possibles problèmes de malnutrition chez la mère, un facteur viral, ainsi que le stress de cette dernière pendant la grossesse, ayant pour conséquence entre autre une désorganisation des connexions synaptiques chez le jeune enfant.

Donc ces facteurs seraient des « prédispositions » à un développement de la schizophrénie à l’entrée dans l’âge adulte, le sujet aurait lui-même des facteurs déclencheurs tels la consommation de drogues (épigénétiques, des facteurs bio-environnementaux qui interagissent avec une prédisposition).

Mais il existe également un lien génétique à priori évident car on observe une hérédité assez forte, avec une trentaine de gènes pour le moment impliqués, et certains locus mises en évidence (6p, 22q, 8p, 3p, 16p, 1q, 15q : délétion versus duplication d’une petite portion de chromosome).

Nb si besoin : p = bras court du chromosome ; q = bras long, on peut aussi imaginer ses jambes 😉 Et donc les chromosomes qui sont le support de l’information génétique, on en a 23 paires, contenues dans chaque cellule, avec environ 25 milles gènes).

Il n’y a ainsi vraiment pas un « gène de la schizophrénie » mais une interaction entre l’expression de plusieurs d’entre eux, et des facteurs environnementaux (épigénétique).

Concernant les données de Neuroimagerie portant sur la schizophrénie, peu de résultats convergent, et dépendent bien sûr des formes de schizophrénie…chaque sujet étant bien sûr UNIQUE. Cependant les données d’IRMf qui ressortent montrent l’implication de structures préfrontales impliquées notamment dans le raisonnement, et les représentations mentales, potentiellement en lien avec une désorganisation psychique. Mais d’autres études montrent que ce serait plutôt des problèmes de circuits entre des structures (mauvaises routes empruntées) notamment en situation d’interaction sociale, et de communication orale. Bref, vaste désordre, mais cette approche reste ici intéressante pour étudier cette pathologie par exemple en étudiant concrètement l’effet d’un agent pharmacologique sur le fonctionnement cérébral. Les recherches continuent donc… avec diverses approches complémentaires !

Concernant les prises en charge…comme le risque de TS est élevé, certaines hospitalisations sans consentement sont possibles dans certains cas.

Il y a quoiqu’il en soit une prise en charge psychologique, et la prescription de certains traitements tel que les benzodiazépines. Il s’agit d’une classe de médicaments psychotropes utilisés dans le traitement de l’anxiété, des convulsions, ils agissent sur les neurones gabaergiques, pour inhiber massivement le système nerveux central. Le plus connu serait sans doute le Vallium (diazépam , qui est un anxiolytique, anticonvulsif), il y a aussi le Xanax qui est connu pour ses effets anxiolytiques, et le Rivotril (clonazepam anticonvulsif).

Mais malheureusement, il y a un sevrage difficile et accoutumance très rapide.Et bien sûr de nombreux effets secondaires et contre-indications…, ainsi que des réactions paradoxales en fonction de l’individu. Il y aurait potentiellement un lien avec la survenue de la maladie d’alzeihmer. Bref, c’est loin d’être tout rose. Et encore une fois on soigne des symptômes temporairement mais clairement pas la maladie , on soulage l’entourage à court terme plus qu’on soigne le sujet lui-même, en le « shootant ».

Il en va de même pour les neuroleptiques prescrits fréquement qui agissent quant à eux sur les recepteurs dopaminergiques qu’ils inhibent, agissant ainsi sur la régulation des émotions (en cas d’anxiété exacerbée, ou de forts délires)

Il faut donc éviter ces prises d’agents pharmacologiques au maximum, mais certains grands groupes peuvent inciter la prescription (et également la famille du patient). Il en est de même pour les antidépresseurs, bien que cette fois ce soit surtout le patient qui peut faire pression sur le médecin pour qu’il lui fasse une ordonnance.


Donc là je vous ai exposé l’approche athéorique et descriptive du DSM. Il existe en contrepartie l’approche psychanalytique, à savoir une nosologie fondée sur des conflits entre des grandes instances psychiques (ça, moi, surmoi) enseignée en faculté de psychologie :

  • Le type névrotique serait un conflit entre le ça et le Moi, entre désir et défense , entre histoire infantile et censure.
  • Le type psychotique serait entre une non-adéquation entre le moi et la réalité ,

etc.


Et donc en live cela se passe comment le diagnostic?

  • Anamnèse : c’est à dire retracer l’histoire du sujet , à la fois familiale et personnelle
  • Observation du comportement pendant l’entretien :
    • comportement moteur (Latéralité) ;
    • comportement visuel (exploration environnement, reconnaissance de visage, cherche le contact visuel ou comportement de fuite) ;
    • communication verbale (fluide, stéréotypie, prosodie) ;
    • trouble émotionnel (apathie, irritabilité , instabilité , inadaptation, deshinibition ),
    • trouble attention (flexibilité, ralenti (idéation? Genèse d’idée )
  • Si possible prise de sang pour faire des analyses génétiques, au patient et, et si on a de la chance aux parents et aux autres membres de la fratrie.
  • Si possible neuroimagerie selon la pathologie envisagée.
  • Entretien clinique et psychothérapie : être à l’écouter du sujet, ne jamais le forcer à parler mais l’encourager au fil de séance, à mettre à la surface des traumatismes potentiels, des difficultés, pour pouvoir l’aider. Possibles thérapies familiales également.
  • Questionnaires à la famille sur le patient.
  • Batterie de tests Neuropsychologiques adaptés à l’âge réel et developpemental (si retard mental)
    • Mémoires (différents types testées) ;
    • Perceptions visuelle, auditive, olfactive, tactile ;
    • Processus attentionnels ;
    • Raisonnement ;
    • Calcul, mémoire de travail (repeter une séquence de nombre à l’envers, switcher entre des règles pour des exercices, etc.) ;
    • Langage, écriture ;
    • Motricité, coordination , etc.
  • Diagnostique différentiel , typiquement on peut se tromper en diagnostiquant un trouble bipolaire alors qu’il s’agissait d’un trouble de la thyroïde…bonjour la prise de lithium chez les gens ayant une mauvaise régulation de la thyroïde. On rentre ensuite (même sans prescription) dans le risque de développer des symptômes (psycho somatisation : si on mentalise de façon extrême un symptôme, le cerveau pense le percevoir et du coup peut en souffrir, typiquement les membres fantômes) ou d’entrer dans la dépression. En même temps lorsque vous vous recevez un nom sur la tête comme un tampon définitif qui ne vous lâchera plus…cela peut être extrêmement dur à vivre.

Si besoin, quelques mots (seulement)sur l’épilepsie :

  • Trouble purement neurologique déjà..! Qui vient du grec, signifiant « prendre par surprise » car les crises arrivent de manière pseudo-random (bien que des facteurs déclencheurs tels le stress, la lumière, les endroits clos, les écrans, sont connus mais différents selon les gens)
  • Nommé et confondu à l’époque avec ce qu’il nommait l’ « Hystérie de conversion» reflétant une conversion somatique de l’energie provenant d’un conflit sexuel inconscient. Le célèbre medecin Charcot faisait des séances d’hypnose sur les patientes « hystériques » à La Pitié-Salpêtrière.
  • Avec une fois encore plusieurs formes existantes.
    • Possibilité d’un facteur génétique de prédisposition, d’une lésion acquise (AVC, traumatisme crânien), ou encore les crises peuvent survenir de manière occasionnelle en cas de manque (calcium, ion) ou de sevrage de psychotrope.
    • Crises partielles (une zone, foyer épileptogène) versus généralisées (les 2 hémisphères)
  • Symptômes : différences inter et intra-individuelles mais globalement
    • Convulsions
    • Hallucinations sensorielles
    • Angoisses
  • Traitements ?
    • Anticonvulsif
    • Neurochirurgie du foyer épileptogène (si pharmaco-resistance mais dangereux)
    • Et si pharmaco-résistance + neurochirurgie impossible, la pose d’une boitier de stimulation intracrânienne du noyau antérieur du thalamus, réduisant la fréquence des crises ;
    • Ou encore stimulation du nerf vague via implantation d’un boitier dans la poitrine – relié au cerveau (aimant donné au patient à se passer sur la poitrine quand il sent une crise venir pour avertir le générateur, mais sinon simulation en continu toutes les 5min pendant 30 sec à 0.5 milliampères)

Références + liens (en cours)


Dossier réalisé dans le contexte de l’émission Podcast Science du 13/01/15

podcastsciencelogo

Limites des études sur la mémoire..?

Pourra t’on réellement parvenir un jour à comprendre dans leur intégralité les processus cognitifs de haut niveau tels la mémoire ? Si on part du principe qu’il soit imaginable de la qualifier comme étant une certaine forme de conscience (Atlan, 2013), une intuition serait de commencer par la conceptualiser de manière extrême comme « immatérialisable », et dès lors, comment la comprendre de manière physique?

Les théories de dualité âme/corps de Descartes sont bien sûr majoritairement dépassées à l’heure actuelle, mais il n’en reste pas moins que nous sommes aujourd’hui rapidement limités et il nous est difficile d’aller plus loin qu’un réseau de structures revenant de manière récurrente dans des études de mémoire (pouvant avec grande précaution être mis en lien avec cette fonction cognitive), ou une augmentation de potentialisation entre deux synapses.

Dans le livre « Matière et Mémoire » (1965), Henri Bergson reprend la distinction âme/corps d’une façon différente de celle de Descartes (qu’il ne corrobore pas car trop « spatiale »), à savoir par le fait qu’elle interviendrait en terme de Temporalité. L’esprit appartiendrait au passé et serait dans un processus de mémoire, alors que le corps dépendrait du présent. Avoir conscience de quelque chose serait selon lui un phénomène mnésique de

« visualisation du présent à la lumière du passé »

permettant de choisir une réaction appropriée (qui ne s’appliquerait donc que pour la mémoire déclarative, consciente, la mémoire non-déclarative étant « logée dans le corps »). Bergson s’oppose dans son livre aux propos de T. Ribot (1881), à savoir au fait que le souvenir serait logé dans une partie du cerveau. La mémoire serait orientée par le cerveau pour guider l’action (et grâce à cela l’ajuster, voir orienter les actions futures de « mémoire projective ») mais ne serait pas supportée par le système nerveux. Le point de vue de Spinoza (Éthique, III, 2, 1661) ne va quant à lui dans aucun des deux sens, il énonce

Le Corps ne peut déterminer l’Esprit à penser, ni l’Esprit déterminer le Corps au mouvement, ni au repos“ et ce précisément parce qu’ils semblent être “une seule et même chose, bien qu’exprimée sous deux aspects” (Ibid.,II, 7).

Serait-il donc concevable que des milliards de traces mnésiques de tout type (épisodique, procédurale, sémantique) se résument, de manière caricaturale à un stockage dans la région x et une interaction avec les régions y – z ? Et si ce n’est pas le cas qu’est ce qui caractériserait la mémoire ? En quoi serait-ce une fonction cognitive humaine ?

Les animaux ont bien sûr des formes de mémoires comme nous pouvons le constater dans des séquences motrices extrêmement bien mémorisées, de la familiarité pour certains items (reconnaissance et donc maintient en mémoire d’un autre individu via son aspect visuel, olfactif, auditif…), etc. Ces derniers semblent également avoir développé certaines capacités mnésiques que l’humain n’a pas (ou de manière très peu développée) telles une mémoire olfactive extrêmement fines (rongeur), une mémoire spatiale (oiseau migrateur), etc. Et au delà, le non-vivant peut montrer lui aussi des patterns mnésiques sans avoir nécessairement d’hippocampe ou de structures similaires. En effet, il est possible de constater que de nombreux modèles de neurones artificiels arrivent d’une certaine façon à se souvenir tels (de manière très basique) celui de Rosenblatt (« Peceptron », 1962), de manière plus affiné celui de Hopfield (1982, mémoire auto-asociative), celui de Kohonen (1970, modèle d’auto-organisation avec un apprentissage non-supervisé), ou encore celui de mémoire associative (réseau neuronal dynamique récurrent, Louzon et Atlan, 2007).

Mais est-ce vraiment la réussite de l’émergence d’un processus cognitif de mémoire ? Que faudrait-il pour que cela le soit ?

Le cerveau s’avère en effet ne pas être comparable à un grand nombre de processeurs, la puissance de calcul étant en croissance exponentielle depuis maintenant un grand nombre d’années, l’émergence d’une fonction cognitive artificielle telle que la mémoire (et plus globalement une intelligence artificielle) aurait déjà du avoir lieu par cette approche de « discrétisation » du processus mnésique. Le modèle mécanique d’auto-organisation fonctionnelle expliquerait la reconnaissance d’items, encodés de manière binaire (Atlan & al., 1986). Une omission apparait cependant éclore ici à savoir, celle des inputs environnementaux. Or ce modèle d’auto-organisation du vivant du matérialiste prend plus récemment en compte l’environnement et parvient à modéliser la mémoire (2007), toujours d’un point de vue teléonomique.

En effet, un réseau de neurones (hippocampique par exemple) étant à un état S par sa dynamique interne aléatoire, est amené à un état F par un stimulus C aléatoire. Cette relation est une première fois mémorisée par un réseau à apprentissage non supervisé (perceptron, cf aspects développementaux et plasticité), le système ne stockant cependant pas tous les liens : seules les relations récurrentes le seraient et deviendraient les « buts désirés », indépendamment du libre-arbitre de l’individu (aspects aléatoires puis mécaniques uniquement). Il semble alors inquiétant de s’orienter vers une conception finaliste (tout en restant en dehors du champ théologique) telle que celle développée par Jacques Monod à savoir la Téléonomie (Pittendrigh) selon laquelle lintentionnalité n’existerait pas, la vie étant déterminée par des processus mécaniques ; voir vers la notion d’essentialisme annulant le libre-arbitre de l’individu, ce dernier subissant donc des déterminismes (notion opposée à l’existentialisme, N. Shor).

Mais cela est-il une nouvelle fois suffisant pour désenchevêtrer la complexité du processus mnésique ? De plus, comment réussir à aborder correctement et intégralement les processus cognitifs sans les incarner (notion d’« embodiement », Rougier, 2013) dans un corps ? Une investigation potentielle serait de coupler une approche chimique (connaissance précise des résultats émergents des innombrables combinaisons moléculaires pouvant avoir lieu à l’échelle de la cellule, etc.), mécanique (propriétés physiques des différentes matières constituant le cerveau, dont la place est souvent oubliée dans la compréhension des fonctions cognitives), computationnelle (compréhension des calculs effectués par le cerveau, modélisation de ces derniers), et des neurosciences, les résultats de chacune de ces connaissances devant obligatoirement être modulés par celles émergentes de l’approche coalescente, pour potentiellement réussir à comprendre le processus cognitif en question. Mais ne manquera-t-il toujours pas quelque chose pour faire émerger de manière physique cet « immatérialité » actuelle..?

Mémoire épisodique

La mémoire épisodique est un sous-système qui regroupe des informations personnellement vécues (subjectivité, souvenirs autobiographiques épisodiques) encodées dans un contexte temporel et spatial, permettant de se représenter consciemment des expériences passées et de les intégrer à un projet futur, de « voyager mentalement dans le temps et l’espace ».

Elle implique une prise de conscience de l’identité propre de l’individu dans le temps : un état de conscience nommé « auto-noétique » propre à la mémoire épisodique (Tulving, 1985), sous-tendue en parti par l’hippocampe, région cruciale notamment lors de la phase de consolidation des souvenirs.

Cette partie du lobe temporal interne est formée du gyrus denté et des trois champs de la corne d’Amon (CA1, CA2, CA3). Elle apparait au niveau du diencéphale médian durant le développement embryonnaire. Sa spécification est initiée par des facteurs de différenciation qui diffusent depuis une structure appelée ourlet cortical. Les différentes connexions établies par les neurones de cette structure ne deviennent matures qu’après la naissance, une fois un réseau fonctionnel mis en place, et après un intense élagage des connexions non utilisées. Le poids du cerveau passe en effet de 25 à 75% de son poids final entre la première et la deuxième année de la vie mais toutes les parties du cerveau ne se développent pas de façon linéaire et parallèle. Ceci est particulièrement vrai pour les zones du cerveau qui sont impliquées dans la mémoire épisodique. Les cellules qui constituent la majorité de l’hippocampe sont formées à la fin de la période prénatale, cette structure voit dès lors son volume augmenter de 13 % entre la première et la deuxième année .

De plus, l’amélioration de la rétention mnésique au cours de la première année est à mettre en relation avec la myélinisation des axones qui augmente la rapidité des connexions, ainsi qu’avec l’évolution progressive du gyrus dentelé de l’hippocampe. Le cortex préfrontal voit considérablement croître la densité de ses synapses à huit mois et continuer plus progressivement sa croissance entre 15 et 24 mois. Des changements perdurent après cette période et ce jusqu’à l’adolescence (Bauer & Pathman, 2008).

L’encodage et la consolidation des souvenirs déclaratifs font appel au circuit de Papez (circuit dynamique, hippocampo-mamillo-thalamo-cingulaire) mais ce dernier ne stocke pas l’information qui voyage successivement de l’hippocampe aux corps mamillaires de l’hypothalamus, au noyau antérieur du thalamus, au cortex cingulaire au cortex entorhinal, pour finalement retourner à l’hippocampe. Ces structures n’atteignent pas leur maturité fonctionnelle au même moment, cette dernière étant de manière générale tardive.Human head silhouette

La transformation des perceptions sensorielles en souvenirs de type épisodiques découlerait du circuit de reconnaissance. Ce dernier fait appel au lobe temporal mésial, principalement aux cortex perirhinal (CPE), parahippocampique (CPA) et à l’amygdale. Le premier est impliqué dans l’encodage de la notion de familiarité de l’item (reçoit des afférences de la voie ventrale), le second dans sa localisation spatiale (afférences de la voie dorsale), l’amygdale donnant pour finir (et de manière caricaturale) une coloration émotionnelle au souvenir. Le cortex entorhinal intègre alors les informations provenant de ces deux cortex et transmet l’ensemble à une supra-structure : l’hippocampe (Suzuki, 2010).

Le modèle BIC (Binding Item & Context) proposé par Diana, Yonelis, et Ranganath, explicite en 2007 le rôle du CPA dans le traitement contextuel, du CPE dans le traitement de l’item, et pour finir le lien que réalise l’hippocampe (recollection contextualisée).

InnovENS : Gilles Babinet, Hack Your Phd, La Paillasse

Retour sur la conférence « Innovation & Open Science, une dichotomie? La propriété intellectuelle en question » organisé en avril dernier à l’ENS ulm par InnovENS.

psl_logo_70De nombreux lieux hybrides émergent aux États-Unis et en Europe, visant à faire « de la Science autrement : une Science pour tous et par tous » ! C’est à dire ? Une sorte de laboratoire sans pré-requis, le matériel étant à disposition et n’attendant plus que vos idées. Il parait par ailleurs évident qu’un physicien, un biologiste ou un philosophe n’appréhendera pas un problème de la même façon, ce mélange créant ainsi une véritable source d’innovation.

Mais qu’en est-il de la propriété intellectuelle dans ces modèles « Open Source », « Open Access », « Open Data » ? Quelle place a-t-elle dans les processus d’innovation et comment la contenir dans la dynamique d’Open Science – R&D ?

Pour y répondre nous avons accueilli Benoit Humblot, un enseignant chercheur en droit spécialiste de la Propriété Intellectuelle qui nous a éclairé sur ces questions d’un point de vue juridique : en clair comment fait-on ? Brevet, licence, publication, monopole du marché, droit d’auteur, droit moral etc., … un petit éclaircissement s’est imposé de lui même, à retrouver ici :

Nous avons ensuite la chance d’accueillir Gilles Babinet, multi-entrepreneur, « Digital Champion », président du Conseil National du Numérique en 2011 (qu’il a entre autre orienté sur les thématiques de libération des données publiques, de fiscalité du numérique, et d’e-éducation).

L’événement s’est conclu par une table ronde accueillant toutes les questions  du public ; avec la participation de M. Babinet, M. Humblot, Thomas Landrain (fondateur du Bio-Hackerspace La Paillasse), et Célya Gruson-Daniel (co-fondatrice de la communauté Hack Your Phd ), que vous pouvez retrouvez ci-dessus.

           téléchargement   &   paillasse

Merci à Gilles Babinet, Benoit Humblot, Célya Gruson-Daniel, et Thomas Landrain, d’avoir accepter de participer à cet événement..

Rapport n° 8 du MESR : Sociétés innovantes intégrantes & adaptatives

Points extraits (et retranscrits) du rapport du Ministère de l’Enseignement Supérieur & de la Recherche, datant du 25 mars 2014.

Défi de la transversalité !  Trois axes

Innovation, risque, et croissance partagée ; Données, informations, décision ; Innovation sociale, éducative, et culturelle pour l’intégration et l’adaptation

  • Nécessité de les inscrire dans des projets collaboratifs & interdisciplinaires (hybridation des profils et des méthodes) ;
  • Renforcement de la convergence entre recherche publique et monde de l’entreprise.

Innovation, risque, et croissance partagée

  • Innovation ? Mise en œuvre d’idées nouvelles, sur des produits, procédés de production, organisations collectives -> Besoin d’une approche croisée & combinée pour répondre aux grands défis actuels de cette nouvelle société émergente, face aux bouleversements numérique, l’évolution démographique (vieillissement global de la population), contraintes énergétiques et financière du paysage français.
  • Prise de risque cruciale et déficitaire dans la société française (facteur majeur de croissance) : les systèmes éducatifs semblent la défavoriser, pointant du doigt l’échec, avec une faible capacité de résilience. Le risque doit être abordé à la fois comme une opportunité & une menace, les 2 se contrebalançant.

Société innovante et croissance partagée : Peu prédictible mais pouvant être préparée et accompagnée par une interdisciplinarité (facteur crucial, clé de sa réussite).

  • Innovation frugale (jugaad) : envisager l’innovation dans le contexte socio-économique particulier que la France vit en ce moment (crise financière, numérique, contraintes énergétiques)
  • Innovation ambivalente selon la façon dont elle se déploie, favorisant l’intégration des populations ou au contraire, créer des scissions durables (avec un accroissement des inégalités)

Actions ?

  • Mise en place de programmes d’analyses des conditions multifactorielles d’émergence de l’innovation -> dans les 7 secteurs d’innovation 2030
  • Développer la « Crowd Science » et en faire un objet d’étude.
  • Création d’outils, de méthodologies comparatives (entre secteurs, conditions, pays) et d’évaluation de l’innovation afin de mieux comprendre les processus de création
  • Favoriser les thèses après un diplôme d’ingénieur vs une ouverture vers la monde de l’entreprise chez le chercheur
  • Recherche-Action, public ou privée, participative, afin de développer des résultats en adéquation la plus juste avec les attentes sociétales.

Données informations décisions

  • Accorder une place prépondérante à la collecte des données, leur stockage, et leur intelligibilité pour une réutilisation ultérieure.
  • Mise à disposition des chercheurs dans le cadre de dispositifs internationaux (France souvent absente)
  • Démocratisation des savoirs :
    • Enjeu d’une société ouvertes avec un accès large aux données, tout en réfléchissant sur les problèmes juridique et éthique (sphère privée, liberté individuelle)
    • Augmenter les échanges entre scientifique et société : science participative

-> Actions ?                                                   

  • Doter la recherche SHS de data center et d’instruments de recherche collectives, adaptés aux nouveaux enjeux scientifiques ;
  • Favoriser les études longitudinales et comparatives ;
  • Mettre en avant les recherches interdisciplinaires (société de l’information et cognition).

Innovation & Education

  • Formation d’environnements « capacitants » : développement des  apprentissages, connaissances, compétences, réajustés aux nouveaux modes de vie. Société intégrante !
  • Se servir des recherches faites en psychologie cognitive :
    • pour comprendre et  accompagner les décrochages scolaires (par exemple les enfants souffrants de dyslexie, dyspraxie, dyscalculie, trouble de l’attention, etc.)
    • ré-adapter certaines méthodes d’apprentissage pour favoriser le bien-être de l’enfant et l’aider à apprendre (lecture, calcul, etc.)
  • Adapter les méthodes éducatives au numérique.

7 secteurs d’innovation 2030 : stockage et recyclage de l’ énergie, valorisation recherche marine, protéines végétales, médecine individualisée, silver économie, valorisation des données.

Problèmes ?

  • Les programmes européens de recherche souvent techno-centrés , besoin d’identifier les freins et les leviers de l’innovation au sein de la société française ;
  • Structuration majoritairement disciplinaire de l’ESR, besoin d’une approche transdisciplinaire ;
  • Lien trop faible avec l’entreprise ;
  • Aversion au risque.

Alors ?

Quels buts et moyens à atteindre d’ici 2020 : TRL (Technology Readiness Level )-> maturité technique !

Rupture scientifique ? Technique ?                                                                         

Renforcer les infrastructures de recherche SHS en interconnexion proches des autres secteurs scientifiques !

  • Huma-Num : déclinaison française de l’infrastructure européenne DARIAH, dans le domaine de la numérisation et mise à disposition d’instruments de recherche collective, et de données standardisées dans les SHS (regroupant différentes unités de recherche).
  • Progedo (production et gestion des données en SHS) : ensemble des 3 segments français des infrastructures européennes :
    • Cessda (Consortium of European Social Sciences Data Archives) : réseau de grandes banques de données, acquises dans des standards internationaux
    • ESS (European Social Survey ) : enquête européenne sur les croyances / comportements de la communauté européenne.
    • Share (Survey of Health, Ageing, and Retirement in Europe) : base de données longitudinale multidisciplinaire et internationale -> 80 milles européens de plus de 50 ans dans 19 pays.

Nb : la France est bien placée en terme de technique reconnue (CASD –> centre d’accès sécurisé aux données, la CNIL, le Comité du secret statistique), mais investie très peu de moyens financiers.

Huma-num & Progedo sont toutes deux reconnues comme « ERIC » (European Research Infrastructure Consortium)

Reconsidérer la place du doctorat 

  • Sortir du système dualiste français grandes écoles / universités
  • Reconnaître la valeur d’un Phd
  • Encourager les entreprises à recruter des docteurs, et encourager les docteurs en recherche fondamentale, à monter une entreprise.

Concilier valorisation d’un travail par sa diffusion, et protection de ce dernier…

Travail faisant suite à la conférence de Benoit Humblot  (enseignant chercheur à l’EPF) organisée par InnovENS à l’ENS Ulm, le 1er avril 2014.

Fondement : « base de la propriété intellectuelle -> les idées sont de libre parcours » ce n’est que par exception que la propriété intellectuelle intervient.

Pourquoi peu de chercheurs brevettent ?

  • Une non-culture juridique majeure dans le domaine de la Recherche :
    • Concernant la France, un brevet n’est possible que depuis la loi Allègre (1999) : permettant aux chercheurs universitaires de créer une startup & de déposer des brevets.
    • Pas forcément apprécié dans le milieu scientifique, pourquoi ? tentative de réponse:

Les chercheurs étant payés par les impôts publiques, ils semblent qu’il soit logique qu’ils rendent accessibles  leurs travaux au plus grand nombre dans une philosophie qui se voudrait être (ou plutôt qui s’est voulue être) le fondement de la recherche : un partage des connaissances en vue d’un travail collaboratif, ce dernier n’étant jamais figé, la recherche n’étant jamais terminée…

  • Procédure longue , complexe, et coûteuse ; & tout simplement suite au fait qu’on ne peut breveter une idée émergente d’une recherche fondamentale non-applicable dans le domaine de l’industrie.

Les brevets 

Première forme émergente en France en 1791, suite à la Révolution (anciennement, protection par « patente »). Titre de propriété industrielle. Protection nationale (auprès de l’INPI en France, de l’USPTO aux Etats-Unis)

  • de l’OEB afin d’étendre cette protection à 38 pays européens (Office Européen des Brevets)
  • possibilité de demande de brevet PCT (traité de coopération en matière de brevet : 142 pays signataires)
  • Nb: démarche longue, complexe, et coûteuse…

Pourquoi un monopole mis en place ? : Encourager l’innovation  (pourquoi créer une « invention » si on n’en retire rien?)

Ils sont étonnement antinomiques du secret -> le but est de partager entièrement l’invention : sa propagation se voit être obligatoire en contre-parti du fait qu’elle soit protégée !

Accessible à tous : répertoriés de manière libre et gratuite dans des bases de données publiques, protégés par le droit des brevets.  Nb : mais peu compréhensible par le sujet lambda non-juriste (…)

Open access, Open science, mais non Open usage pendant une durée de 20 ans.

Exploitation d’un brevet ? exception :

  • Permission par licence payante (monopole d’exploitation de l’invention)
  • Disponibilité d’expérimentation en laboratoire : agissement expérimentaux pour améliorer une invention autorisée -> : « brevet de perfectionnement » !

Quelle situation des autres savoirs non brevetés ? Souvent secret & dissimulé

Qu’en est-il de la qualité de l’information ? que peut-on breveter ?

  • Le droit des brevets ne protège pas tout, besoin que cela soit une :
    • Activité inventive : « ne doit pas être évidente pour l’homme du métier » ;
    • Applicabilité industrielle : exposer l’utilité d’invention (c’est pour cela que les théories mathématiques ou biologiques ne peuvent être brevetées)
  • Inventeur reconnu et identifié par le droit des brevets (prérogative de droit moral) : on reconnait la personne qui est à l’origine de la découverte (considérée donc comme une publication importante dans le domaine de la recherche scientifique)

Article scientifique & Droit d’auteur

  • Liberté de diffuser sans reproduire. Mais : Aucune emprise sur l’idée ….

L’article scientifique est envisagé comme une œuvre de l’esprit ! c’est à dire que c’est sa forme qui est protégée et non l’idée transmise !

Un industriel peut exploiter l’idée exprimée (sans que le droit d’auteur puisse trouver quelque chose à redire). Le contenu doit aller chercher sur le terrain du droit des brevets si l’auteur estime une nécessité de protection.

On peut raconter (blog), ré-utiliser, se servir des idées… on ne peut juste pas reproduire tel quel l’article scientifique sans autorisation de l’auteur. Exceptions :

  • Courte-citation (pour reprendre un papier et le commenter, exemple des blogs)
  • Copie privée (pour soi-même, en gros s’imprimer l’article et ne pas le diffuser)

Le chercheur cède par ailleurs bien souvent son droit d’exploitation à l’éditeur afin de pouvoir publier.

Durée de 70 ans post-mortem                                                     

Droit moral 

  • Droit au nom (besoin de mettre le nom de l’auteur lors de l’exploitation de l’idée)
  • Droit au respect de l’œuvre : dans des cas d’exploitation de l’idée, l’auteur peut intervenir s’il trouve que cette exploitation n’est pas conforme à l’idée de sa création : il a cédé son droit patrimonial mais peut faire intervenir son droit moral!