Les migrants et les licornes

Grâce à la lettre d’information hebdomadaire A16Z, je viens de découvrir une nouvelle et intéressante étude sur l’importance des migrants dans le paysage américain de l’innovation: Immigrants and the Billion Dollar Startups (en pdf). Voici quelques résultats clés:
– 51 pour cent, ou 44 sur 87, des start-up valant 1 milliard de dollars ou plus avaient au moins un fondateur mmigrant.
– 62 des 87 entreprises, soit 71 pour cent, avaient au moins un migrant aidant l’entreprise à croître et à innover.
– les fondateurs immigrés ont créé une moyenne d’environ 760 emplois par entreprise aux États-Unis.
Bien sûr, cela se limite aux entreprises privées, les licornes qui ont une histoire récente, mais ce sont des données impressionnantes.

Immigrants and Billion Dollar Startups

Si vous n’avez jamais rien lu sur l’importance des migrants dans la Silicon Valley, vous pourriez également être intéressé par le travail de AnnaLee Saxenian. Pour terminer, j’ai copié les données de l’étude, pour ajouter mes propres commentaires:

Unicorns_and_migrants

Sur le plan géographique, sur les 44 start-up, 14 sont basées dans la Silicon Valley et 12 de plus à San Francisco même.
En termes d’éducation, sur les 60 fondateurs immigrants, 23 ont étudié dans des universités américaines, dont 5 à Stanford et 1 à Berkeley contre 4 à Harvard et 2 au MIT.
En termes d’origine, l’étude donne les différents pays et je me suis intéressé à l’Europe: 15 proviennent de l’Union européenne contre 14 de l’Inde et 7 en provenance d’Israël.

Intéressant, non?

Les machines vont-elles nous remplacer ?

C’est le titre traduit d’un excellent article de la MIT Technology Review que l’on trouve en ligne: Will Machines Eliminate Us? J’en fournis ici une traduction tant je trouve qu’il vient contrebalancer l’avalanche de promesses et d’exubérance médiatiques et scientifiques…

Les gens qui craignent que nous soyons sur la point d’inventer des machines dangereusement intelligentes comprennent mal l’état de l’informatique.

par Will Knight – le 29 janvier 2016

yoshua.bengio_machinesYoshua Bengio dirige l’un des groupes de recherche les plus avancés dans un domaine de l’intelligence artificielle (AI) en fort développement et connu sous le nom d’apprentissage profond ou « deep learning » (voir fr.wikipedia.org/wiki/Deep_learning). Les capacités surprenantes que le deep learning a données aux ordinateurs au cours des dernières années, de la reconnaissance vocale de qualité humaine à la classification des images jusque des compétences de conversation de base, ont généré des avertissements menaçants quant au progrès que l’AI fait vers l’intelligence humaine, au risque peut-être de même de la dépasser. Des personnalités comme Stephen Hawking et Elon Musk ont même averti que l’intelligence artificielle pourrait constituer une menace existentielle pour l’humanité. Musk et d’autres investissent des millions de dollars dans la recherche sur les dangers potentiels de l’AI, ainsi que sur les solutions possibles. Mais les déclarations les plus sinistres semblent exagérées pour nombre de gens qui sont en fait directement impliquées dans le développement de la technologie. Bengio, professeur de sciences informatiques à l’Université de Montréal, met les choses en perspective dans un entretien avec le rédacteur en chef de la MIT Technology Review pour l’AI et la robotique, Will Knight.

Faut-il se soucier de la rapidité des progrès de l’intelligence artificielle ?
Il y a des gens qui surestiment grossièrement les progrès qui ont été accomplis. Il y a eu beaucoup, beaucoup d’années de petits progrès derrière un grand nombre de ces choses, y compris des choses banales comme plus de données et plus de puissance de l’ordinateur. Le battage médiatique n’est pas de savoir si les choses que nous faisons sont utiles ou pas – elles le sont. Mais les gens sous-estiment combien la science doit encore faire de progrès. Et il est difficile de séparer le battage médiatique de la réalité parce que nous voyons toutes ces choses épatantes qui, à première vue, ont l’air magiques.

Y a t-il un risque que les chercheurs en AI « libérent le démon» accidentellement, comme Musk le dit ?
Ce n’est pas comme si quelqu’un avait tout à coup trouvé une recette magique. Les choses sont beaucoup plus compliquées que l’histoire simple que certaines personnes aimeraient raconter. Les journalistes aimeraient parfois raconter que quelqu’un dans son garage a eu cette idée remarquable, et puis qu’une percée a eu lieu, et tout à coup nous aurions l’intelligence artificielle. De même, les entreprises veulent nous faire croire à une jolie histoire : « Oh, nous avons cette technologie révolutionnaire qui va changer le monde – l’AI est presque là, et nous sommes l’entreprise qui va la fournir. » Ce n’est pas du tout commet cela que les choses fonctionnent.

Qu’en est-il de l’idée, au centre de ces préoccupations, que l’AI pourrait en quelque sorte commencer à s’améliorer d’elle-même et alors devenir difficile à contrôler?
Ce n’est pas comme cela que l’AI est conçue aujourd’hui. L’apprentissage automatique ou « machine learning » (voir fr.wikipedia.org/wiki/Apprentissage_automatique) est un processus lent et laborieux d’acquisition d’information à travers des millions d’exemples. Une machine s’améliore, oui, mais très, très lentement, et de manière très spécialisée. Et les algorithmes que nous utilisons ne ressemblent en rien à des virus qui s’auto-reproduiraient. Ce n’est pas ce que nous faisons.

« Il nous manque quelque chose de fondamental. Nous avons fait des progrès assez rapides, mais ils ne sont toujours pas au niveau où nous pourrions dire que la machine comprend. Nous sommes encore loin de cela. »

Quels sont quelques-uns les grands problèmes non résolus de l’AI?
L’apprentissage non supervisé est vraiment, vraiment important. En ce moment, la façon dont nous enseignons aux machines à être intelligentes est que nous devons dire à l’ordinateur ce qu’est une image, même au niveau du pixel. Pour la conduite autonome, l’homme étiquette des quantités gigantesques d’images de voitures pour montrer quelles parties sont des piétons ou des routes. Ce n’est pas du tout comme cela que les humains apprennent, et ce n’est pas comme cela que les animaux apprennent. Il nous manque quelque chose de fondamental. C’est l’une des choses les plus importantes que nous faisons dans mon laboratoire, mais il n’y a pas d’application à court terme – cela ne va probablement pas être utile pour construire un produit demain. Un autre grand défi est la compréhension du langage naturel. Nous avons fait des progrès assez rapides au cours des dernières années, c’est donc très encourageant. Mais ce n’est toujours pas au niveau où nous pourrions dire que la machine comprend. Ce serait vrai si nous pouvions faire lire un paragraphe à la machine, puis lui poser une question à ce sujet, et la machine répondrait d’une manière raisonnable, comme le ferait un humain. Nous sommes encore loin de cela.

Quelles approches au-delà de l’apprentissage profond seront nécessaires pour créer une véritable intelligence de la machine ?
Les efforts traditionnels, y compris le raisonnement et la logique – nous avons besoin de marier ces choses avec l’apprentissage profond afin d’avancer vers l’AI. Je suis l’une des rares personnes qui pensent que les spécialistes de l’apprentissage automatique, et en particulier les spécialistes de l’apprentissage profond, devraient accorder plus d’attention aux neurosciences. Les cerveaux fonctionnent, et nous ne savons toujours pas pourquoi à bien des égards. L’amélioration de cette compréhension a un grand potentiel pour aider la recherche en AI. Et je pense que les gens en neurosciences gagneraient beaucoup à s’intéresser à ce que nous faisons et à essayer d’adapter ce qu’ils observent du cerveau avec les types de concepts que nous développons en apprentissage automatique.

Avez-vous jamais pensé que vous auriez à expliquer aux gens que l’AI n’est pas sur le point de conquérir le monde? Cela doit être étrange.
C’est en effet une préoccupation nouvelle. Pendant de nombreuses années, l’AI a été une déception. En tant que chercheurs, nous nous battons pour rendre la machine un peu plus intelligente, mais elles sont toujours aussi stupides. Je pensais que nous ne devrions pas appeler ce domaine celui de l’intelligence artificielle, mais celui de la stupidité artificielle. Vraiment, nos machines sont idiotes, et nous essayons juste de les rendre moins idiotes. Maintenant, à cause de ces progrès que les gens peuvent voir avec des démos, nous pouvons maintenant dire: « Oh, ça alors, elle peut effectivement dire des choses en anglais, elle peut comprendre le contenu d’une image. » Eh bien, maintenant que nous connectons ces choses avec toute la science-fiction que nous avons vue, cela devient, « Oh, j’ai peur! »

D’accord, mais c’est tout de même important de penser dès maintenant aux conséquences éventuelles de l’AI.
Absolument. Nous devons parler de ces choses. La chose qui me rend le plus inquiet, dans un avenir prévisible, ce n’est pas que des ordinateurs prennent le pouvoir dans le monde entier. Je suis plus préoccupé par une mauvaise utilisation de l’AI. Des choses comme de mauvaises utilisations militaires, la manipulation des gens par le biais de publicités vraiment intelligentes; aussi, l’impact social, comme beaucoup de gens perdant leur emploi. La société a besoin de se réunir et de trouver une réponse collective, et ne pas laisser la loi de la jungle arranger les choses.

Will Knight est le rédacteur en chef pour l’AI de la MIT Technology Review. Il couvre principalement l’intelligence des machines, les robots, et l’automatisation, mais il est intéressé par la plupart des aspects de l’informatique. Il a grandi dans le sud de Londres, et a écrit sa première ligne de code sur un puissant Sinclair ZX Spectrum. Avant de rejoindre cette publication, il travaillait comme éditeur en ligne au magazine New Scientist. Si vous souhaitez entrer en contact, envoyer un e-mail à will.knight@technologyreview.com.

Crédit – Illustration par Kristina Collantes

Deux défis du transfert de technologie – Partie 2: Apprenez à connaître votre bureau de transfert.

Mon deuxième post sur le transfert de technologie (après celui sur les systèmes nationaux) traite de la micro-économie de l’activité. Il est motivé par l’excellent article de Nature intitulé Keys to the Kingdom et sous-titré Ce que vous devez savoir sur votre bureau de transfert de technologie.

Avant de résumer son contenu, permettez-moi de vous rappeler les articles qui couvrent déjà le sujet de sorte que vous en conviendrez, ce n’est pas un sujet nouveau pour moi et je considère aussi qu’il est important:
– Licences et start-up universitaires en mai 2010 (www.startup-book.com/fr/2010/05/04/licences-et-start-up-universitaires) suivie
– Licences et start-up universitaires (la suite) en juin 2010 (www.startup-book.com/fr/2010/06/15/licences-et-start-up-universitaires-la-suite)
– Que demandent les universités aux start-up pour une licence de propriété intellectuelle? en novembre 2013 (www.startup-book.com/fr/2013/11/05/que-demandent-les-universites-aux-start-up-pour-une-licence-de-propriete-intellectuelle)
– Les universités doivent-elles s’enrichir avec leurs spin-offs? en juin 205 (www.startup-book.com/fr/2015/06/09/les-universites-doivent-elles-senrichir-avec-leurs-spin-offs)

bioe2015

Co-écrit par 18 personnes de Stanford, Oxford, Harvard, l’Université de Californie à San Francisco et l’University College de Londres, l’article décrit ce que devraient connaître les gens intéressés à obtenir une licence sur de la propriété intellectuelle pour créer une start-up. Le document commence par « Comme […] entrepreneur universitaire, vous ferez face à de nombreux défis » et le second paragraphe suit avec « En outre, vous aurez très probablement à négocier avec le bureau de transfert de technologie de votre université (TTO) une licence de propriété intellectuelle (PI) en rapport avec votre recherche. »

Quels sont ces défis liés au TTO? Ils sont écrits dans l’article en caractères gras comme suit: Surmonter l’asymétrie d’information – De longues négociations – L’inexpérience – le manque de financement – Les règles sur le conflit d’intérêt – Utiliser un avocat expérimenté. Cela signifie que comme futur entrepreneur, vous devriez être prêt et idéalement être informé sur le sujet.

Les défis

Le principal défi semble être la complexité administrative et l’opacité (page 1), y compris la confidentialité des contrats, qui rend difficile pour les observateurs extérieurs la compréhension des termes équitables d’un contrat (page 1 à nouveau). Et, ils concluent presque leur article par: « En effet, même pour les universités pour lesquelles nous disposons de données en ce qui concerne les politiques de prise de participation (equity), il a été souvent difficile de les trouver, cachées profondément dans un fouillis de jargon juridique. À cette fin, nous encourageons les universités et les instituts de recherche qui reçoivent des fonds publics à être totalement transparents dans leurs politiques d’equity et de redevances (royalties), et à ne pas utiliser ces asymétries d’information comme un avantage de négociation contre des […]entrepreneurs en herbe ».

A la page 2, je note:
– Une négociation peut être longue (6-12 mois, voire 18 mois) et une façon de faire court est d’accepter les termes proposés.
– Une façon d’atténuer l’inexpérience est de « préparer un plan d’affaires adéquat ou une stratégie pour votre PI avant d’approcher votre TTO » ou « d’amener avec vous des membres de l’équipe ayant une expérience préalable dans […] la commercialisation pour améliorer la crédibilité de votre équipe ».
– Le manque de financement peut être partiellement résolu par la signature de «contrats d’option de licence ».
– Les règles sur le conflit d’intérêt « existent pour empêcher les universitaires de jouer des deux côtés de la négociation d’un accord de licence ou de consacrer trop de temps à des obligations non académiques ». En outre, « les TTOs représentent les intérêts de l’université (et non les universitaires), mais l’universitaire est techniquement un employé de l’université. «Notre politique est de ne jamais négocier directement avec l’universitaire», dit un représentant de TTO américain ».
– Un avocat expérimenté est conseillé pour évaluer la qualité de la propriété intellectuelle, mais aussi parce que « […] les entrepreneurs échouent souvent à apprécier le coût d’opportunité pour le TTO dans l’octroi de licences. Si une technologie est octroyée à une équipe inefficace (en particulier avec une licence exclusive), l’université renonce à tout succès ou revenu qu’elle aurait pu avoir d’une licence de la technologie à un partenaire de l’industrie mieux organisé. De plus les universités ont des ressources humaines et des moyens limités pour protéger la propriété intellectuelle, et, pour cette raison, préfèrent une licence technologique aux équipes qu’elles estiment bien préparées pour la commercialiser ».

Les termes de la prise de participation (equity)

« Peut-être la différence la plus frappante entre les États-Unis et le Royaume-Uni concerne les termes de la prise de participation (equity). Au Royaume-Uni, un accord de licence typique est un partage 50/50 rarement négociable entre l’université et l'[…] entrepreneur universitaire, alors que les personnes interviewées dans les universités américaines ont indiqué des prises de participation négociables de l’ordre de 5-10% ».

Vous comprenez maintenant pourquoi je disais dans mon précédent post que je ne suis pas convaincu de prendre le Royaume-Uni comme une référence. La pratique des États-Unis montre qu’il y a de place dans le débat. Vous pouvez vérifier à nouveau dans mon article de novembre 2013, qu’un accord typique est soit de 10% d’equity à la création ou de 5% après un financement important. Très rarement plus.

Là encore, les auteurs mentionnent que « les fondateurs aux États-Unis souvent ne réalisent pas que certains termes de deal sont négociables, y compris les frais initiaux, les paiements d’option, l’equity, les paiements de redevances (royalties), les paiements intermédiaires, les territoires couverts, le domaine d’utilisation et l’exclusivité par rapport à la non-exclusivité » et que aussi, « au Royaume-Uni, les termes de licences sont souvent perçus comme étant non négociables, bien que ce soit pas toujours le cas. En fait, de nombreuses politiques d’universités indiquent explicitement que les termes des contrats sont négociables ». Cela peut par contre rendre le processus plus long.

À la page 4, les auteurs ajoutent: « Il est difficile de comprendre la justification des TTO britanniques, comme Isis Innovation d’Oxford, qui prennent 50% du capital d’une entreprise à la formation, ce qui après l’investissement peut laisser l’entrepreneur académique avec une très faible participation dès le lancement, pour ce qui était probablement des années de travail, et qui demandera encore beaucoup plus de temps et d’argent pour le développement à venir » et en fait « les données suggèrent que les TTOs qui demandent moins au début et laissent plus à l’universitaire et aux investisseurs qui vont effectivement développer l’idée plus avant est payante à long terme. Autrement dit: détenir une petite part de quelque chose est a encore plus de valeur qu’une plus grande part de rien du tout ».

Le mystère des redevances (royalties)

« Il est également intéressant de noter que, même si une discussion sur les redevances était hors de portée de cette étude, il ressort clairement de notre recherche que de nombreux TTO académiques « doublent la mise » en demandant prises de participations (equity) et redevances (royalties) significatives. » Mais encore une fois « peut-être plus inquiétante que les parts démesurées d’equity et de redevances que les universités revendiquent est le manque de transparence de la part de nombreuses universités sur cette question cruciale ».

Ma conclusion : tout entrepreneur en herbe devrait lire ce court document de 5 pages et être prêt à négocier. J’aimerais autant que les auteurs que les universités et les instituts de recherche soient totalement transparents dans leurs politiques d’equity et de royalties, mais je suis également conscient de la position éventuellement affaiblie des universités qui le feraient.

Deux défis du transfert de technologie – partie 1, les systèmes nationaux.

Deux documents m’ont conduit à décrire ici, deux types de défis auxquels font face les entités de transfert de technologies académiques.
– Tout d’abord d’un point de vue macro-économique, le défi vient des différentes structures administratives envisageables, mais aussi de la complexité des activités. Le rapport Transfert et Valorisation dans le PIA de Bruno Rostand compare les politiques de l’Allemagne et du Royaume Uni à celle de la France.
– Ensuite, d’un point de vue micro-économique, la revue Nature a publié l’article Keys to the kingdom avec pour sous-titre, Ce que vous devez savoir sur votre bureau de transfert de technologie. Je reviendrai sur cet article dans mon prochain post.

Mise en page 1

Le rapport de Bruno Rostand aborde les défis que la France rencontre en ayant créé des sociétés régionales de transfert de technologie, les « SATT ». Il note que l’Allemagne a bâti un système similaire avec ses « PVA » dans les länder. Dans les deux cas, il y a un objectif d’autonomie financière qui semble difficile à réaliser pour ne pas dire irréaliste, malgré l’existence de subsides publics. En Allemagne, deux de ces sociétés ont même déposé le bilan en Basse Saxe en 2006 et à Berlin en 2013.

Pourquoi de telles difficultés ? Parce que les retours sur investissement n’auront pas été à la hauteur des espérances. Par exemple, environ €10M d’euros auront été investi chaque année sous forme de fonds publics en Allemagne, mais les revenus seront restés bien inférieurs. De plus la structure régionale a montré ses limites, tant il est difficile d’acquérir une expertise dans tous les domaines de la technologie.

Le Royaume Uni connaît une situation différente. L’état n’aura été qu’un acteur marginal et ce sont soit les universités (Cambridge, Oxford, Imperial College) soit des structures privées proches du capital-risque (IP group) qui ont de manière organique contribué à structurer le transfert de technologie. En externalisant des structures devenues privées, ces organisation ont permis des bâtir des entités riches en ressources humaines et financières. À Oxford, ISIS emploie 80 personnes pour £14.5M de revenus en 2014. Imperial innovation est cotée en bourse depuis 2006, emploie 45 personnes et a généré un profit de £27M en 2014. Imperial innovation a élargi sa base initiale en collaborant avec d’autres universités. Enfin l’IP Group a des accords avec plus de 15 universités pour un profit de £9.5M en 2014. Le rapport montre bien des philosophies extrêmement différentes avec primauté du public ou du privé et des résultats de profitabilité divers, avec une dimension entrepreneuriale évidente au Royaume Uni. L’accent plus ou moins mis sur les start-up conduira à des structures différentes, y compris fonds de maturation et incubateurs.

Le rapport montre également qu’une politique de licence et une politique de soutien à la création de start-up sont différentes. Enfin, ces nouvelles structures de TT ont souvent la seule charge de la valorisation et de la maturation de la PI, alors que les collaborations de recherche avec l’industrie restent de la responsabilité des universités. Cette séparation pourrait être une faiblesse quand les deux sujets ont un lien.

Un sujet sensible est celui de l’exclusivité qui peut créer des tensions lorsque la gestion du TT est mutualisée. Certaines universités souhaitent garder une certaine autonomie, notamment dans des domaines où la compétence de la structure de TT leur semble faible. Un autre sujet délicat est celui de la structure par région alors qu’une structure par domaine de compétence transrégionale serait peut-être plus adaptée. (Le rapport aborde aussi la recherche partenariale et la coopération internationale que je ne traiterai pas ici.)

Dans la partie finale, Rostand montre la complexité des défis. Il faut déjà définir la mission du transfert qui peut être ou non celle de faire du profit. L’externalisation semble être une tendance dans les trois pays, mais elle a ses avantages et ses inconvénients. Il semble aussi qu’il y ait pas mal d’instabilité et de fluctuations dans les cycles de financement, ce qui n’aide pas à faire une analyse des outils de transfert. Le rapport aborde aussi la question des ressources humaines (types de compétences et d’expériences), autre sujet qui peut-être lié aux moyens dont disposent ces organisations.

Le seul commentaire personnel que je fais ici concerne ma légère frustration de ne pas avoir trouvé dans un rapport (extrêmement instructif par ailleurs) d’analyse de la situation américaine. Le pays du libéralisme et des universités privées compte très peu de structures de transfert externalisées, et encore moins à but non lucratif. Je n’ai en tête que WARF de l’Université du Wisconsin à Madison – www.warf.org) alors que les revenus de TT aux USA sont considérablement plus élevés qu’en Europe. L’explication pourrait simplement venir d’une innovation privée autrement plus dynamique, indépendamment de tous les systèmes mis en place.

Du Street Art à Florence

Il n’y a sans doute pas de ville au monde sans Street Art. Après mes découvertes de Banksy, de Space Invader à travers la planète ou des mosaïques miroir de Pully, voici quelques images de Florence.

Florence_.K_1

Florence_.K_3

Florence_.K_4

Florence_.K_2

Florence_.K_5

Florence_.K_6

L’artiste semble être connu par sa signature – .K – et j’ai trouvé quelques autres pages qui décrivent son travail: Exit/Enter et The Elusive “.K”. Les images qui suivent l’icluent aussi avec le célèbre Clet Abraham qui « sévit » lui aussi sur toute la planète.

Florence_.K_clet

Et encore…

Florence_.K_more

Voici un autre lien des ses interventions à Florence: Florence street sign art by Clet. Et que dire de ces images poétiques?

Florence_Blub

Sciences et technologies émergentes, pourquoi tant de promesses? (Partie 4)

Suite et fin de ce que j’ai retenu de Sciences et technologies émergentes, pourquoi tant de promesses? (pour mémoire voici les liens aux partie 1, partie 2 et partie 3).

1316845933

Les derniers chapitres de cet excellent ouvrage essaient d’explorer des pistes pour résoudre le problème de l’excès de promesses qui est devenu un système. Dans le chapitre IV.2, il est question de désorcèlement, je l’ai lu comme une analyse critique du vocabulaire employé par ceux qui promettent. Le chapitre parle assez longuement du mouvement transhumaniste, la promesse des promesses! « […] décrire comment ces acteurs produisent certes, mais surtout détournent, reconfigurent et amplifient ces mêmes promesses […] face à des consommateurs passifs et naïfs ». [Page 261] et plus loin « [mais] les transhumanistes sont d’abord des militants, la plupart du temps ni ingénieurs, ni praticiens, […] tentant des réponses à des questions pas encore posées ou mal posées, […] d’où un corpus bien caricatural, » au point de parler de « secte » en citant Jean-Pierre Dupuy, « une pensée brouillonne, souvent contestable ». [page 262]

Dans la chapitre IV.3, les auteures explorent des approches non conventionnelle, signe possible d’un désarroi pour répondre « scientifiquement » aux promesses. Ainsi celles-ci ont-elles contribué à la création d’une bande dessinée pour répondre à une autre bande dessinée qui souhaitait vulgariser et promouvoir la biologie de synthèse.

Adventures_Synthetic_Biology

Enfin le dernier chapitre explore des scenarii face à l’explosion des promesses, comme l’idée d’augmenter le nombre de prix Nobel. Nouvelle promesses?!! Plus concrètement, l’auteur montre bien que les promesses initiales ne sont pas suivies dans les faits: « Le phénomène d’attentisme de l’investissement, ou déficit d’innovation, est par contre moins reconnu, quoique largement répandu: l’effet des promesses générales et diffuses entretient l’intérêt des acteurs mais trop d’incertitudes les retiennent d’investir dans des cycles de promesses-exigences concrets. » [Page 297] « Un jeu est à l’œuvre qui se poursuit tant que les joueurs se conforment aux règles, […] ils sont prisonniers du jeu. […] Ils peuvent aussi en sortir, si les circonstances s’y prêtent, et alors le jeu s’effondre. » [Page 298]

En conclusion, au delà d’une description très riche de nombreux exemples de promesses scientifiques et techniques, les auteurs ont bien montré comment un régime des promesses s’est bâti à travers les interactions entre différents acteurs (les chercheurs eux-mêmes, les décideurs politiques, sociaux et économiques qui les financent, et le grand public qui espère et angoisse). Le rapport au temps, non seulement le futur, mais aussi le présent et le passé, est joliment décrit, sans oublier un certain désir d’éternité. Et enfin, on découvre surtout que les promesses ont conduit à une multitude de débats qui étaient peut-être, pour ne pas dire tout à fait, inutiles, tant l’on pourrait peut-être découvrir que les promesses ne pourront jamais être tenues, dès même l’instant où elles ont été prononcées…

Sciences et technologies émergentes, pourquoi tant de promesses? (Partie 3)

Voici mon troisième article relatif au livre Sciences et technologies émergentes, pourquoi tant de promesses? Après les considérations générales sur le système des promesses, le livre présente les contributions décrivant des domaines spécifiques:

I.3 : les nanotechnologies
II.1 : les semiconducteurs à travers la loi de Moore
II.2 : le Big Data
II.3 : les Digital Humanities
III.1 : les neurosciences et la psychiatrie
III.2 : le Human Brain Project (HBP)
III.3 : la médecine personnalisée
III.4 : la biodiversité et la nanomédecine
IV.1 : la procréation médicalement assistée
IV.2 : la médecine régénératrice

1316845933

Chaque chapitre est intéressant pour le lecteur curieux car chacun montre les dynamiques entre promesses et attentes des acteurs (chercheurs, politiques, grand public). Le chapitre consacré au HBP est en particulier intéressant dans la description de la déconnexion entre contenu et forme. « Comment se fait- que le HBP ait « gagné la compétition » malgré le déficit d’évidences à même de fonder pragmatiquement la pertinence scientifique et la légitimité organisationnelle de ses ambitieux objectifs ? Nous développons ici l’hypothèse que ce déficit, reproché après coup, a été à la fois masqué et pallié par la production de promesses façonnées de manière à anticiper et/ou répondre de manière efficace à des enjeux politiques, économiques, sociaux et sanitaires, inscrits à l’agenda des « défis à relever ». [Page 166] La crédibilité du HBP scellée par cette décision s’est construite […] selon un processus d’adaptations et de validations réciproques dans le double registre de la politisation de la science et de la scientifisation de la politique. En d’autres termes, nous montrerons que l’une des conditions importantes de cette crédibilité a été la co-production réussie d’une congruence stratégique entre les promesses [des scientifiques] et l’agenda des enjeux politiques. [Page 171] L’assemblage entre connaissance du cerveau et forme de vie sociale s’est opéré essentiellement dans l’ordre du discours. […] Dans cette situation contrastée, l’inflation discursive autour du cerveau et des neurosciences semble bien être le corollaire d’un déficit d’évidences, comme si elle venait pallier, positivement ou négativement, les écarts entre l’actuel et le futur, l’avéré et le possible, le manque et le désir. Cette caractéristique ordinaire des projets de big science a pour conséquence l’élaboration et la mise en œuvre d’une rhétorique prophétique qui vise à anticiper la possibilité d’une avenir meilleur en empruntant aux registres de l’espoir et de la promesse. » [Page 176-77]

Je reviens à une citation du chapitre 3 qui me parait essentielle comme conclusion à ce nouveau post: Les véritables progrès des techno-sciences viendront moins de leur capacité à tenir des promesses que de leur capacité à s’en passer, à hériter de manière critique de l’époque des grandes promesses technologiques. Il ne s’agit pas de briser une idole, mais d’apprendre à en hériter. [Page 111]

Sciences et technologies émergentes, pourquoi tant de promesses? (Partie 2)

Voici déjà une suite à mon article d’hier qui décrivait le 1er chapitre de Sciences et technologies émergentes, pourquoi tant de promesses? Dans le chapitre 2 (aussi intéressant que le premier), il est question de rapport au temps, de « présentisme », « futurisme » et de sa place dans le régime des promesses. Il y a le joli passage suivant :

1316845933

Depuis La nouvelle Atlantide, les spéculations futuristes ont accompagné l’essor des sciences modernes. Et au XXe siècle, Jean Perrin a scellé une nouvelle alliance entre la science et l’espérance. Mais pour lui, c’est la science qui précédait et suscitait l’espérance alors que désormais, c’est plutôt l’espérance qui meut la recherche. Les technosciences renversent, en effet, l’ordre des questions qui enchainait la suite des trois critiques de Kant : « Que puis-je connaître ? » question traitée dans La Critique de la raison pure, puis la question « Que puis-je faire ? » traitée dans la Critique de la raison pratique, puis la question « Que puis-je espérer ? » abordée dans la Critique du jugement. Au contraire dans les politiques scientifiques actuelles, on détermine ce qu’on doit faire et ce qu’on peut éventuellement acquérir comme savoir en cernant les espoirs, les promesses. (Page 50)

Il y a pourtant un paradoxe déjà exprimé dans le premier chapitre entre un futurisme avec les termes de promesse, prospective et prophétie qui nous projettent et un présentisme particulièrement marqué par la mémoire qui fige le passé et fait du futur une menace qui n’éclaire plus ni le passé, ni le présent. Au point de parler de présentification du futur…

De plus, il est question du futur comme choc, de « crise » du temps due à l’accélération. A l’impression d’incompréhension et d’impuissance, s’ajoute l’expérience de la frustration, du stress provoqué par l’accélération du rythme de vie, la déception d’une promesse liée à la modernité, où les techniques étaient supposées nous faire gagner du temps, nous émanciper.

Autre confusion : la planification et la feuille de route caractéristiques des projets technologiques s’est glissée dans les projets de recherche où il est question de production de savoir, alors que dans une recherche, il est impossible de garantir un résultat. Mais l’auteur montre par deux exemples, que cette évolution est complexe.

Dans le cas des nanotechnologies, il y a bien eu feuille de route avec deux premières étapes relativement prévisibles de production de composants suivie d’une troisième étape plus spéculative sur des systèmes couronnée par une quatrième étape où il est question d’émergence, tout cela « au mépris de la contingence, de la sérendipité et des bifurcations possibles », non pas pour prédire, mais « linéariser la production des connaissances ». la feuille de route prévoit l’imprévisible en annonçant une émergence, en combinant un scénario rassurant de contrôle avec un scénario d’émergence, ce qui permet d’inspirer confiance et en même temps de faire rêver. (Pages 55-56)

Dans le cas de la biologie de synthèse « malgré des convergences manifestes avec les nanotechnologies », le développement rapide se fait sans feuille de route. « Une commune intention – le design du vivant – rassemble ces trajectoires de recherche. » Et il est plus question de refaire le passé (« 3.6 milliards d’années de code génétique ») que d’imaginer des futurs. Le futur devient abstrait et il est question de preuve de concept. Et d’ajouter que dans une science normale au sens de Kuhn, ces preuves de concepts seraient tombées dans l’oubli. Le paradoxe est qu’il n’est pas question de vrai ou de faux, mais de design, sans nécessaire fonctionnalité.

Dans le premier cas, « prédiction ou prospective sont convoquées comme la base indispensable pour une stratégie fondée sur des choix rationnels », « le futur est tourné vers le présent. » Dans le second cas, il est question de « tracter le présent. » et de « fuite hors du temps. » On fédère et mobilise sans objectif nécessaire. Le futur est virtuel abstrait, vidé de toute culture et humanité ; la vie de l’homme augmenté ressemble au repos éternel…

En définitive, l’économie des promesses reste rivée sur le présent, soit en faisant du futur un point de référence pour guide l’action au présent, soit en cherchant à éterniser le présent.

Les chapitres trois et quatre sont moins théoriques en décrivant d’une part de nouveaux exemples dans le domaine des nanotechnologies et d’autre part comment la Loi de Moore est devenue une loi alors qu’elle n’était qu’une vision prospective des progrès des semi-conducteurs. Peut-être bientôt une suite sur les autres chapitres…

Sciences et technologies émergentes, pourquoi tant de promesses? (Partie 1)

Sciences et technologies émergentes, pourquoi tant de promesses? est le titre d’un ouvrage issu d’un collectif d’auteurs, sous la direction de Marc Audétat, politologue et chercheur à l’Interface Sciences-Société de l’Université de Lausanne. Ce n’est pas un livre de lecture facile, il est assez exigeant, mais il pose des question importantes.

J’ai déjà rendu compte sur ce blog de livres qui parlent d’une certaine crise de la science, par exemple dans La Crise et le Modèle Américain, à propos des livres « La science à bout de souffle » ou « La bulle universitaire. Faut-il poursuivre le rêve américain? » Ou encore dans Rien ne va plus, livre de Lee Smolin, sans oublier la critique plus violente des promesses de la technologie selon Peter Thiel dans La Technologie, notre salut.

1316845933

Ce nouvel ouvrage explore les promesses liées à la science et la technologie au point de parler d’une économie des promesses. Il s’agit d’un ouvrage collectif ce qui n’en rend pas la lecture aisée, mais la diversité des points en est aussi sans doute une richesse. Je n’en ai pas achevé la lecture et j’y reviendrai certainement. Dans le premier chapitre, P.-B. Joly décrit le régime des promesses techno-scientifiques. Il commence par introduire les concepts d’imaginaire et de vision [Page 33], ce « couple de concepts prend en compte la façon dont les sources d’inspiration diverses interviennent dans la création technique. […] L’imaginaire donne une apparence presque tangible à des concepts et idéaux qui en sont a priori dépourvus [… et devient] un sens commun qui fonde l’action en société. […] Le concept de vision est proche de celui d’imaginaire, mais à une échelle plus réduite. Il s’apparente à celui de « mythe rationnel » utilisé pour analyser les dynamiques de l’action collective dans des contextes de changement. […] Des coalitions d’acteurs se forment autour de ces visions d’un ordre prospectif et contribuent à leur dynamique. […] Si l’on admet cette distinction conceptuelle entre imaginaires (à des échelles amples – la Nation – et s’inscrivant dans la longue durée) et visions (caractéristiques de coalitions d’acteurs et actives sur des périodes de moyenne durée), se pose la question de l’interaction entre les deux. »

« A la différence des visions et des imaginaires, pour lesquels le contenu des agencements techniques prime, ce qui est essentiel pour les promesses techno-scientifiques, c’est l’instauration d’une relation, la création d’un horizon d’attente. […] Les promesses sont essentielles dans la création technologique, car elles permettent aux acteurs de l’innovation de légitimer leurs projets, de mobiliser des ressources et de stabiliser leur environnement. […] Toute promesse techno-scientifique doit convaincre un large public qu’elle conditionne un avenir meilleur que les solutions alternatives, même si la réalisation de la promesse requiert des transformations majeures, parfois douloureuses. » (L’auteur mentionne l’histoire de l’électricité ou de la révolution verte comme solution de la faim dans le monde)

« Notre concept de promesses techno-scientifiques s’est systématisé pour devenir, depuis une quarantaine d’années, le mode de gouvernance des nouvelles techno-sciences (les biotechnologies et la génomique, les nanotechnologies, les neuroscience, la biologie synthétique, la géo-ingénierie, etc.) La construction d’une promesse techno-scientifique répond à deux contraintes contradictoires : la contrainte de nouveauté radicale et celle de crédibilité. […] (Et j’interprète que) pour que cette demande soit crédible, il faut disqualifier les solutions alternatives. [De plus] Pour qu’une théorie scientifique soit crédible, sa validité n’est ni nécessaire, ni suffisante. […] Les promesses techno-scientifiques doivent bénéficier du soutien d’un cercle de spécialistes. Sinon, elles ne peuvent pas résister aux oppositions qui se manifestent soit dans les arènes scientifiques, soit dans les arènes publiques. On observe une version extrême lorsque les spécialistes se réfèrent à des lois naturelles pour faire croire au caractère inéluctable de l’évolution technologique. (Exemples : loi de Moore et loi de Gabor.) Ainsi, en principe, les promesses génériques ne sont pas soumises à des tests de validité. »

Enfin cette intensification est renforcée par trois éléments complémentaires [page 39] :
– l’avenir constitue plus une menace qu’une source d’espoir ;
– la recherche et l’innovation sont souvent présentées comme la seule façon de résoudre les problèmes ;
– les acteurs de la recherche doivent démontrer leurs impacts sociétaux.

Ce qui conduit à des pathologies [pages 40-43] :
– le mythe d’un public en proie à des peurs irrationnelles et qu’il convient d’éduquer devient un schéma intangible;
– les promesses se transforment en bulles spéculatives ;
– la radicalité de la nouveauté et des incertitudes crée des discours contradictoires, sources de méfiances car les effets produits d’une telle radicalité ne sont pas prédictibles et en expérimentant, le technologue devient apprenti-sorcier et la société, laboratoire ;
– enfin les promesses conduisent à des discussions interminables sur des fictions, sur des questions qui n’ont parfois rien à voir avec la réalité des recherches.

En conclusion Joly pense que ce régime de promesses est l’un des ennemis du futur en raison de la séparation nette qu’il créée entre ceux qui formulent la promesse et ceux qui sont censés l’accepter. La reconnaissance de ce régime et de ces problèmes est donc un impératif préalable.

A la lecture de ce premier chapitre, j’ai retrouvé les préoccupations sociétales de Cynthia Fleury, dont j’ai déjà dit le plus grand bien dans une digression sur l’article « Le transhumanisme, c’est de la science fiction ». Nos sociétés démocratiques sont en crise, et la méfiance face aux politiques et face aux experts n’a jamais été aussi forte. La problématique de la recherche et de l’innovation sont une des composantes de cette crise. Je suis donc impatient de découvrir la suite de ce très intéressant (et important) ouvrage…

Grandeur et décadence de Blackberry

Article très intéressant dans l’excellente ParisTech Review: Grandeur et décadence de BlackBerry. L’article montre comment la « disruption » est de plus en plus menaçante non seulement pour les entreprises établies, mais aussi pour les start-up à croissance rapide .

Blackberry a été fondée en 1984 comme Research in Motion par deux jeunes étudiants ingénieurs de l’Université de Waterloo – Mike Lazaridis – et de l’Université de Windsor – Douglas Fregin. Ils avaient environ 23 ans. Huit ans plus tard, un homme d’affaires expérimenté, James Balsillie, les rejoindra, investira une partie de son argent ($250k) et deviendra le « co-PDG » avec Lazaridis. RIM a financé une grande partie de son activité initiale avec ses partenaires (Ontario New Ventures – $15k; General Motors – $600k; Ericsson – $300k; l’Université de Waterloo – $100k; le développement local de l’Ontario – $300k) de sorte qu’elle n’a levé des fonds auprès des investisseurs qu’1995 seulement, y compris Intel en 1997. La société est entrée en bourse à Toronto en octobre 1997, puis sur le Nasdaq en 1999.

ParisTech-Blackberry-fr

Comme les auteurs le remarquent, « si BlackBerry représente à peine 1% des parts de marché du smartphone aujourd’hui, l’entreprise canadienne en contrôlait la moitié il y a quelques années. […] Or, dans cet âge de la rupture, l’histoire du BlackBerry est la mère de toutes les histoires. L’entreprise qui l’a lancé en 1998 pèse 20 milliards de dollars une décennie plus tard. Puis, quatre ou cinq ans après, cette même société, à bout de souffle, ne vaut plus que 3 milliards. Ce n’est pas seulement une histoire de rupture ; c’est une histoire qui résume la vitesse de la course technologique actuelle. »

Ils expliquent comment Lazaridis était un visionnaire lorsque les téléphones mobiles devaient être des dispositifs simples et comment il a échoué quelques années plus tard: « Le moment crucial, c’est janvier 2007, quand Steve Jobs se promène sur scène, à San Francisco, en tenant cet objet brillant que nous tous connaissons et adorons tous, et qu’il dit: « C’est un iPhone ». […] La partie vraiment fascinante de l’histoire de BlackBerry, c’est leur réaction ce jour-là. À Mountain View, chez Google, il y avait deux projets secrets : l’un pour un nouveau téléphone à clavier, l’autre pour un téléphone à écran tactile exploité sous Android. À la minute où ils ont vu Jobs présenter l’iPhone, ils ont réalisé que leur projet avec clavier était mort, et ils ont tout basculé vers le téléphone à écran tactile. Mike Lazaridis, lui, a regardé cette annonce, considéré ce qu’offrait Steve Jobs, et il a dit : « C’est impossible. » Une fois encore, l’ingénieur conservateur disait non, les réseaux ne pourront jamais transmettre toutes ces données. C’est une impossibilité. Ce n’est même pas logique que quelqu’un le propose. Il a eu raison les deux premières années. N’oubliez pas tous les appels interrompus, toutes les frustrations, toutes les poursuites contre Apple et les opérateurs. Cela ne fonctionnait pas… Mais ensuite cela a fonctionné, et RIM a eu tout faux. Deux ans, dans la technologie, c’est une vie complète ; au moment où ils ont enfin réalisé la gravité de la menace, ils en étaient à suivre la meute. »

Blackberry était (est encore) la réussite la plus connue de l’Université de Waterloo et Wikipedia mentionne à quel point Lazaridis a remercié son alma mater: En 2000, Lazaridis a fondé l’Institut Perimeter pour la physique théorique. Il a fait un don de plus de 170 millions de dollars à l’institut. En 2002, Mike Lazaridis a fondé l’Institute for Quantum Computing (IQC) de l’Université de Waterloo. Avec sa femme Ophelia, il a fait don de plus de 100 millions de dollars à l’IQC depuis 2002. Cela me rappelle ce que Logitech et Daniel Borel sont à l’EPFL (où je travaille). Vous devriez lire l’article complet et je conclus ici avec ma table de capitalisation habituelle…

Blackberry CapTable