Analyse des données : le grand gâchis numérique

L’IA, une révolution à guichet fermé ? Chronique d’un rendez-vous (encore) manqué pour les PME…

Cet article prend 9 minutes à lire et comporte 2250 mots.

L’ère numérique promet­tait la démoc­ra­ti­sa­tion des don­nées, la mise à dis­po­si­tion de puis­sants out­ils pour tous, une révo­lu­tion dans la façon de com­pren­dre et d’ex­ploiter l’information.

La vérité, c’est qu’on en est loin. Très loin.

Les outils, on les a. Le problème, c’est qu’on s’en sert pas.

Depuis une décen­nie, les avancées en intel­li­gence arti­fi­cielle sont spec­tac­u­laires. Des mod­èles puis­sants, des bib­lio­thèques open source, des datasets gigan­tesques… Tout est disponible, sou­vent gra­tu­ite­ment ou à très bas coût.

En démoc­ra­ti­sant la puis­sance de cal­cul, le cloud a ouvert la voie. Hug­ging Face, spa­Cy ou Deep­In­fra per­me­t­tent désor­mais aux petites struc­tures d’ex­ploiter des tech­nolo­gies jusqu’alors hors de portée.

Mais c’est une illu­sion com­mode : le cloud aurait démoc­ra­tisé l’IA. Certes, des mod­èles sont acces­si­bles, par­fois gra­tu­ite­ment, et les API abon­dent. Mais exploiter vrai­ment ces out­ils reste un priv­ilège – celui de ceux qui savent, et de ceux qui peuvent.

Les chiffres ne mentent pas : seules 10% des entre­pris­es français­es util­i­saient l’IA en 2024. Dans les PME/TPE, on tombait à 13%. Pour l’IA généra­tive, c’é­tait encore pire : 3% d’usage réguli­er.

Et en 2025 ? La part des PME util­isant l’IA a pro­gressé : 39% utilisent désor­mais des appli­ca­tions IA et 26% la généra­tion IA, même si l’intégration « trans­for­ma­tion­nelle » reste minori­taire (8%).

C’est un mirage fam­i­li­er. On l’a vu avec l’ar­rivée des pre­miers micro-ordi­na­teurs. Dans les années 80, on par­lait déjà de « révo­lu­tion infor­ma­tique », de PC dans tous les foy­ers. En réal­ité, il a fal­lu plus d’une décen­nie pour que la puis­sance de cal­cul devi­enne vrai­ment un out­il quo­ti­di­en – maîtrisé, pro­duc­tif, inté­gré dans les usages.

L’in­tel­li­gence arti­fi­cielle suit le même chemin. On en par­le comme si elle était déjà à la portée de tous, mais entre l’an­nonce et la vraie démoc­ra­ti­sa­tion, il y a un gouf­fre. Et une lente mon­tée en com­pé­tences, sou­vent lais­sée pour compte.

Pour­tant – qu’il s’agisse de résul­tats financiers, de déci­sions de jus­tice, d’échanges de mails ou d’avis clients – les besoins d’analyse sont partout. Mais les répons­es restent bien sou­vent insuffisantes.

La vérité, c’est qu’il n’y a même pas de demande claire. Pas encore.

C’est trop cher. Trop com­pliqué. « Pas pour nous. »

54% des PME invo­quent le manque de temps, 49% le coût, 39% la com­plex­ité de mise en œuvre. Pen­dant ce temps, 36% pointent encore le manque de for­ma­tion comme frein majeur à la numérisation.

Un peu comme à l’époque où on s’é­clairait à la bougie – pas par manque de lumière, mais par attache­ment à une habi­tude bien ancrée.

Cette résis­tance au change­ment, c’est le vrai frein aujourd’hui.

Les out­ils exis­tent, les capac­ités tech­niques aus­si, mais l’habi­tude, le con­fort du « comme avant » et l’ab­sence d’ac­com­pa­g­ne­ment main­ti­en­nent les petites struc­tures en marge. Celles qui n’ont ni le temps ni les ressources pour expéri­menter. Celles qui doivent se for­mer, s’adapter. Celles qui font avec ce qu’elles con­nais­sent, sou­vent des solu­tions bricolées ou inadaptées.

Le fos­sé entre la promesse tech­nologique et la réal­ité d’usage est immense. Les out­ils restent com­plex­es à déploy­er et à maîtris­er, néces­si­tent com­pé­tences pointues, infra­struc­tures adap­tées, et surtout du temps – une ressource rare dans les petites structures.

La « démoc­ra­ti­sa­tion » de l’in­tel­li­gence arti­fi­cielle cache égale­ment une autre réal­ité : ce ne sont pas les out­ils qui man­quent, mais la capac­ité col­lec­tive à les intégrer.

Et on assiste à une exclu­sion silen­cieuse, une frac­ture numérique qui se creuse entre ceux qui savent exploiter ces tech­nolo­gies… et ceux qui en ne peu­vent pas, ou ne savent pas.

Cet écart grandit, et la frac­ture numérique s’en­racine tou­jours un peu plus.

Cette frac­ture n’est pas pour autant une fatal­ité : elle reflète un écosys­tème imma­ture, un manque d’ac­com­pa­g­ne­ment et l’ab­sence de solu­tions adap­tées aux réal­ités du terrain.

Oui, l’IA est là. Puis­sante et acces­si­ble… en théorie. Mais pour la majorité, elle reste un luxe loin­tain, un out­il réservé aux plus grands.

C’est ce para­doxe qu’il faut com­pren­dre pour espér­er chang­er la donne.

Le tiers-monde numérique

Cette sit­u­a­tion ne relève pas du hasard, ni d’un sim­ple manque d’information.

Les petits acteurs économiques, arti­sans, com­merçants, indépen­dants, sont devenus les lais­sés-pour-compte de la révo­lu­tion numérique.

En France, pen­dant qu’on finance à hau­teur de 1,5 mil­liard d’eu­ros 590 start-ups d’élite et leurs 16 licornes, 87% des PME et TPE restent exclues de cette révolution.

Les GAFAM (Google, Ama­zon, Face­book, Apple, Microsoft), les BATX (Baidu, Aliba­ba, Ten­cent, Xiao­mi) et autres mastodontes con­cen­trent toutes les ressources, tous les tal­ents, toutes les don­nées, et surtout les tech­nolo­gies les plus avancées.

Ils nour­ris­sent leurs algo­rithmes pro­prié­taires, bâtis­sent des empires basés sur l’ex­ploita­tion mas­sive des don­nées, et creusent un fos­sé tech­nologique abyssal avec le reste du monde.

Mais il existe un autre monde. Pas celui que décrivent les pub­lic­ités, ni celui van­té par les experts. Un monde dont les promess­es tech­nologiques ne fran­chissent jamais le seuil.

Un monde fait de petites struc­tures, de PME, de com­merces de prox­im­ité, d’as­so­ci­a­tions, qui vivent dans l’om­bre de la révo­lu­tion numérique.

Un monde – ou plutôt un tiers-monde numérique – où l’ac­cès aux out­ils, aux com­pé­tences et à l’ac­com­pa­g­ne­ment reste un luxe. Où l’in­no­va­tion est un rêve loin­tain, sou­vent oublié, par­fois même ignoré.

Celui de la majorité des acteurs, qui restent coincés avec des solu­tions bricolées, des plu­g­ins Word­Press périmés, des out­ils inadap­tés ou hors de prix.

C’est effec­tive­ment un « tiers-monde numérique » : un univers par­al­lèle où le pro­grès est ralen­ti, où les inno­va­tions sont trop chères ou trop com­plex­es, où les acteurs locaux sont exclus des flux de connaissance.

Parce que l’in­tel­li­gence arti­fi­cielle, c’est un peu comme un énorme Mec­ca­no offert à un enfant. Le jou­et est là, gra­tu­it, ten­tant, prêt à être assem­blé. Mais voilà : la notice n’est pas incluse. Elle est ven­due à part, à un prix exorbitant.

Pour se for­mer à l’IA, un salarié dis­pose de 500€ par an de droits CPF. De quoi s’of­frir une demi-journée de con­sult­ing. Autant dire : de quoi regarder le Mec­ca­no de loin.

Sans cette notice, impos­si­ble de com­pren­dre com­ment mon­ter les pièces, d’ex­ploiter tout le poten­tiel du jou­et. Alors, l’en­fant se lasse, la boîte reste fer­mée, ou bien il bricole à l’aveu­gle, avec les moyens du bord.

Et pour beau­coup, l’IA, c’est ça : un cadeau qu’on peut touch­er, mais dont on ne sait pas se servir. Parce que la con­nais­sance, la for­ma­tion, l’ac­com­pa­g­ne­ment, ça coûte cher. Et ça, peu le peuvent.

Ce ghet­to numérique n’est pas une fatal­ité. C’est une frac­ture méthodique­ment organ­isée, patiem­ment entretenue. Une exclu­sion qui ne doit rien au hasard, ni à un manque de moyens – mais à une stratégie implicite, où seuls les ini­tiés déti­en­nent les clés.

Car der­rière les dis­cours lénifi­ants sur l’ac­ces­si­bil­ité et la démoc­ra­ti­sa­tion de la tech­nolo­gie, il y a une réal­ité beau­coup plus crue : celle d’un délit d’ini­tié à grande échelle.

Une minorité capte les out­ils, maîtrise les codes, pri­va­tise la con­nais­sance. Et le silence qui entoure cette cap­ta­tion n’est pas de l’ig­no­rance : c’est une omer­ta. Volon­taire. Organisée.

Seuls 12% des dirigeants tra­vail­lent avec des start-ups. L’é­cosys­tème d’in­no­va­tion reste entre ini­tiés, pen­dant que la majorité des entre­pris­es paie pour être présente sur des plate­formes qui moné­tisent leurs pro­pres données.

On ne partage pas la notice du Mec­ca­no. On la vend. Ou plutôt, on la réserve à l’élite qui peut s’a­cheter un accom­pa­g­ne­ment à plusieurs mil­liers d’eu­ros. Les autres, eux, restent à la porte.

Cette frac­ture numérique n’est pas une sim­ple con­séquence col­latérale : c’est un sys­tème de rente déguisé en moder­nité, un entre-soi savam­ment verrouillé.

Un rack­et. Organ­isé par une mafia en col blanc, qui fac­ture au prix fort l’ac­cès à la connaissance.

Celle-là qui a com­pris que l’ig­no­rance, elle aus­si, pou­vait rap­porter gros. Qui l’or­gan­ise, et l’entretient.

Et pour­tant…

Le potentiel est pourtant accessible

Le poten­tiel est là, immense, à portée de main.

L’in­tel­li­gence arti­fi­cielle, loin d’être réservée à une caste de sachants, pour­rait devenir un for­mi­da­ble levi­er d’au­tonomie, de com­préhen­sion, d’émancipation.

Un out­il de contre-pouvoir.

Mais pour cela, encore faut-il que les clés soient réelle­ment don­nées. Pas ven­dues. Pas verrouillées.

Prenons un cas concret.

Parce que l’é­man­ci­pa­tion numérique ne tient pas seule­ment à des grands dis­cours, mais à des usages sim­ples, utiles, intégrables.

Prenons l’ex­em­ple de l’analyse d’avis clients.

Des dizaines, des cen­taines de mil­liers d’avis sont lais­sés chaque jour sur des sites de e‑commerce, dans WooCom­merce, PrestaShop, Magen­to, et surtout sur des plate­formes d’avis vérifiés.

Une mine d’or pour com­pren­dre les attentes, les frus­tra­tions, les points forts et faibles des produits.

Sauf que cette richesse est cap­tée, monétisée, puis reven­due à prix d’or, justement.

Elle ne prof­ite pas aux con­som­ma­teurs qui ont lais­sé ces avis. Elle ne prof­ite pas aux com­merçants qui four­nissent la matière pre­mière – et qui paient pour être présents sur ces plateformes.

Prenez ce restau­ra­teur toulou­sain : 450€ par mois pour être vis­i­ble sur les plate­formes de livrai­son, plus 30% de com­mis­sion sur chaque com­mande. En échange ? Ses pro­pres avis clients lui sont reven­dus sous forme de « rap­ports ana­ly­tiques » à 89€ men­su­els supplémentaires.

Et c’est une aber­ra­tion : le boulanger ne vend plus son pain, il paie pour qu’on daigne le lui prendre.

Des out­ils open source comme spa­Cy per­me­t­tent d’ex­traire des entités, des adjec­tifs, des fonc­tion­nal­ités mentionnées.

Des plate­formes comme Hug­ging Face don­nent accès à des mod­èles d’analyse de sen­ti­ment et d’é­mo­tion mul­ti­lingues à bas coût, par­mi lesquels Qwen, BGE, GTE.

Con­crète­ment ? Analyser 10 000 avis clients coûte moins de 2€ en API. Le même ser­vice « pre­mi­um » est fac­turé 500€ par mois par les plate­formes spécialisées.

L’in­té­gra­tion de ces tech­nolo­gies dans les CMS et plate­formes exis­tantes n’est pas un rêve inac­ces­si­ble : c’est tech­nique­ment fais­able, prag­ma­tique, et économique­ment viable.

Un développeur web com­pé­tent peut inté­gr­er une solu­tion d’analyse de sen­ti­ment en moins d’une semaine. Mais com­bi­en de PME le savent ? Com­bi­en ont accès à cette expertise ?

Et pour­tant, peu de pro­jets voient le jour, peu d’ac­teurs osent franchir le pas.

    Ne man­quez plus un article… 

    Abon­nez-vous à la newsletter ! 

    Pourquoi ? Parce que der­rière la tech­nique, se cachent encore des bar­rières – cul­turelles, finan­cières, humaines – qui freinent l’adoption.

    Pourquoi ça coince ?

    Si la tech­nique ne manque pas, ce sont les fac­teurs humains, organ­i­sa­tion­nels et cul­turels qui freinent l’adoption.

    La frag­men­ta­tion des com­pé­tences est un prob­lème majeur :

    • les data sci­en­tists, experts en IA, sont rares et coû­teux, sou­vent éloignés du ter­rain (salaire médi­an : 55K€ con­tre 35K€ pour un développeur web clas­sique),
    • les développeurs web sont sur­chargés et peu for­més à l’in­tel­li­gence artificielle,
    • les dirigeants et respon­s­ables méti­er ont du mal à for­muler leurs besoins claire­ment et à inté­gr­er ces solu­tions dans leurs process.

    L’ab­sur­dité du sys­tème : une PME de 20 salariés a plus de chances de s’of­frir un con­sul­tant SAP qu’un accom­pa­g­ne­ment IA. Parce que SAP, c’est du « sérieux ». L’IA, c’est encore du « gadget ».

    Le manque de solu­tions clé en main aggrave le problème.

    On ne trou­ve pas de « bou­tons mag­iques » pour déploy­er une analyse fine, ergonomique et intégrée.

    Les pro­jets néces­si­tent sou­vent des mon­tages com­plex­es, une adap­ta­tion lourde, et beau­coup de maintenance.

    Le plan « Osez l’IA » affiche des objec­tifs ambitieux : 80 % des PME, 50 % des TPE et 100 % des grands groupes util­isa­teurs d’IA d’ici 2030.

    Sur le papi­er, on frôle la plan­i­fi­ca­tion indus­trielle. On pense aux grandes ambi­tions… et inévitable­ment, au plan quin­quen­nal de 1928, cen­sé propulser l’URSS vers la moder­nité en cinq ans.

    Comme à l’époque, les objec­tifs sont chiffrés, cen­tral­isés, présen­tés comme inélucta­bles. Et comme à l’époque, on oublie l’essentiel : les moyens réels, l’exécution locale, et les acteurs de terrain.

    Car dans les faits, trois cents ambas­sadeurs IA doivent « accom­pa­g­n­er » plus de qua­tre mil­lions de TPE. Un pour 14 000 entre­pris­es. Même avec une moti­va­tion stakhanoviste, le gouf­fre logis­tique est évi­dent.

    L’impression d’un mou­ve­ment nation­al est là. La réal­ité, elle, ne bouge pas.

    Ce n’est pas de l’accompagnement, c’est de la mise en scène.

    C’est comme rajouter une goutte d’eau dans le Paci­fique et dire qu’on a fait mon­ter le niveau de la mer.

    Ce décalage entre l’intention poli­tique et la capac­ité réelle d’action illus­tre un mal plus pro­fond : on pense la démoc­ra­ti­sa­tion du numérique avec une logique de vit­rine, alors que le ter­rain a besoin d’une mécanique de prox­im­ité, rapi­de, sou­ple et contextualisée.

    À cela s’a­joute la peur du change­ment et la résis­tance cul­turelle, très fortes dans les PME.

    Et bien sûr, les coûts cachés liés à la for­ma­tion, au temps per­du à tester des solu­tions, à bricol­er des sys­tèmes instables.

    Un exem­ple cri­ant : une agence de comm » parisi­enne a dépen­sé 8 000€ en tests d’outils d’au­toma­ti­sa­tion sur 18 mois. Résul­tat ? Retour au tableur Excel et aux copi­er-coller manuels. « On n’avait pas le temps de for­mer l’équipe », avoue le dirigeant.

    Une piste à creuser : simplicité et pragmatisme

    Pour chang­er la donne, il faut se recen­tr­er sur le concret.

    Pas besoin de déploy­er un LLM dernier cri hors de prix.

    On peut com­mencer par un pipeline sim­ple, mod­u­laire, facile à déployer :

    • spa­Cy pour détecter les entités importantes,
    • un mod­èle léger pour analyser le sentiment,
    • une base de don­nées pen­sée pour agréger les résultats,
    • une inter­face claire pour que l’u­til­isa­teur puisse agir sans coder.

    Coût total d’un tel sys­tème ? Moins de 50€ par mois pour une PME de 50 salariés. Le prix d’un repas d’af­faires. Mais qui le pro­pose ? Qui l’ex­plique ? Qui accompagne ?

    Ce type de solu­tion offre déjà un retour sur investisse­ment immédiat.

    Il suf­fit d’un peu de péd­a­gogie, de for­ma­tion et d’ac­com­pa­g­ne­ment pour démoc­ra­tis­er ces usages.

    Sauf que la péd­a­gogie, ça ne rap­porte pas. Les for­ma­tions de 3 jours à 2000€, si.

    Prendre le train ou attendre le suivant ?

    Le train suiv­ant, on ne sait pas quand il passera. On se sait même pas s’il passera.

    Le numérique est à un tour­nant décisif. Ceux qui sauront maîtris­er et inté­gr­er ces tech­nolo­gies auront un avan­tage con­cur­ren­tiel massif.

    Les autres res­teront mar­gin­al­isés, exclus d’un monde qui val­orise la don­née et la con­nais­sance, exclus d’un monde piloté par la donnée.

    Dans 5 ans, les PME qui n’au­ront pas franchi le pas de l’IA seront dans la posi­tion des com­merces qui refu­saient inter­net en 2005. Condamnées.

    Ce n’est pas une fatal­ité. Mais il faut agir, vite.

    Ouvrir les portes. Sim­pli­fi­er. For­mer. Accompagner.

    Bris­er les ghet­tos numériques.

    Arrêter de financer les licornes à coups de mil­liards pen­dant qu’on laisse 87% des entre­pris­es sur le bas-côté.

    Ou rester à quai.

    Pas­cal CESCATO

    Je ne me con­tente pas de refor­muler des com­mu­niqués ou de dérouler des specs. Je teste, je creuse, je démonte quand il faut – parce qu’un sujet mal com­pris est un sujet mal écrit. J’écris avec les mains dans le cam­bouis, sans sim­pli­fi­er à out­rance ni recracher du mar­ket­ing. Mon truc, c’est de ren­dre clair sans trahir, lis­i­ble sans liss­er. Et non, je ne “fais pas du con­tenu”. Pas pour faire du con­tenu, en tout cas.

    S’abonner
    Notification pour
    guest
    0 Commentaires
    Le plus ancien
    Le plus récent Le plus populaire
    Commentaires en ligne
    Afficher tous les commentaires
    Table des matières
    Retour en haut
    Les cookies que nous utilisons sont indispensables au bon fonctionnement de ce site. Il n'y a aucun pistage publicitaire et les données statistiques recueillies sont anonymisées.
    J'ai compris