Le praticien-concepteur

Quand le travailleur social reprend la main sur ses outils

Auteur : Adrien Guionie
Structure : Impulsion SocIAl
Date : Avril 2026
Format : Plaidoyer

1. Le constat : des outils conçus sans nous

Je travaille dans le secteur social depuis plusieurs années. Dans ce temps-là, j'ai vu arriver beaucoup d'outils numériques. Un logiciel pour réserver un bureau. Un autre pour réserver un véhicule de service. Un troisième pour gérer l'agenda. Un quatrième pour le suivi des dossiers. Un cinquième pour les statistiques. Un sixième pour les transmissions. Chacun fait une chose, une seule, et ne parle pas aux autres. Passer de l'un à l'autre est le quotidien. Ressaisir les mêmes informations dans des interfaces différentes est la norme.

Ces outils ont une deuxième caractéristique commune : ils ont été conçus sans nous. Pas contre nous, mais sans nous. Par des gens compétents dans leur domaine, qui n'ont jamais rédigé un rapport de fin de mesure, jamais conduit un entretien dans une situation de crise, jamais géré l'urgence d'un signalement en fin d'après-midi un vendredi. Ils ont imaginé notre métier depuis l'extérieur, et ont construit à partir de cette projection.

Le résultat est prévisible. Les outils répondent à des besoins abstraits, pas à des situations réelles. Ils structurent ce qui est facile à structurer et ignorent ce qui est difficile. Trois mois après le déploiement, les professionnels ont trouvé des contournements pour continuer à travailler malgré eux.

Pendant des années, je n'ai pas eu d'autre choix que de faire avec ce qu'on nous donnait.

2. Ce que la Tech promet, et ce qu'elle oublie

Aujourd'hui, les promesses ont changé de nature. On ne nous vend plus seulement des logiciels de gestion. On nous vend de l'intelligence artificielle. Et avec elle, une promesse récurrente : réduire la charge administrative, gagner du temps, permettre aux professionnels de se concentrer sur l'essentiel.

Cette promesse est sincère. Et elle est dangereuse.

Dangereuse parce qu'elle repose sur une équation que personne ne formule clairement. Si l'IA réduit le temps passé sur les tâches administratives, que fait-on de ce temps gagné ? Deux réponses sont possibles. La première : moins de postes. La seconde : plus de personnes accompagnées par professionnel. Dans les deux cas, la charge relationnelle augmente. Plus de demandes d'écoute, plus d'intensité, plus de situations complexes par journée de travail. C'est ce qu'on appelle la fatigue compassionnelle. La fatigue compassionnelle accumulée mène au burnout, le burnout à l'arrêt maladie, et l'arrêt maladie déstabilise des services déjà sous tension.

Les logiciels conçus par des équipes extérieures au secteur posent une autre question, plus fondamentale. Certains promettent d'aider les professionnels à structurer leurs accompagnements : par où commencer, qui appeler, après combien de temps relancer sans nouvelles. J'ai pu en tester certains, comme Case AI. Ce sont des questions réelles, et ces outils sont parfois bien construits. Mais ils appellent une autre question, que personne ne pose : comment un algorithme peut-il connaître le temps de l'humain ?

Le phénomène « Madame Irma »

L'algorithme prédit, oriente, priorise à partir de données passées. Ce glissement vers la décision anticipée est documenté en détail dans le plaidoyer Les signaux faibles dans le travail social. Ces logiciels ont été conçus dans la projection d'un métier.

J'ai entendu plusieurs fois, de collègues d'autres secteurs, que les travailleurs sociaux se posaient trop de questions sur la protection des données et la confidentialité. Ces questions ne sont pas des freins. Ce sont des conditions. Ce sont elles qui distinguent un outil au service des personnes d'un outil au service de la gestion des personnes.

Question pour les décideurs

Si l'IA réduit la charge administrative de vos équipes, où va le temps gagné ? Vers moins de postes, ou vers plus de personnes accompagnées ? Dans les deux cas, la charge relationnelle augmente. Avez-vous prévu quelque chose pour ça ?

3. Ce que j'ai construit, et comment

Je travaille en protection de l'enfance. Dans ce secteur, la pression du quotidien est constante. On me dira que le temps consacré à la rédaction est aussi du temps de réflexion, un moment pour poser la situation. C'est vrai dans l'idéal. Dans la réalité, c'est souvent autre chose : la redondance des saisies, l'appel du partenaire reçu en voiture quand on ne peut pas prendre de notes, les ressentis de l'entretien oubliés parce que le tourbillon du quotidien a recouvert tout le reste. Ce qui s'accumule, ce n'est pas de la réflexion. C'est de la mise en forme et de la retranscription.

J'ai commencé à travailler avec l'IA sur ce problème précis. Plusieurs mois de prompts testés, ajustés, relancés. Des résultats décevants, des impasses, des reformulations. Et finalement, quelque chose qui fonctionnait. C'est ce travail qui a donné DictIA.

DictIA : dicter pour être présent

Je dicte mes notes d'entretien à la voix. Des prompts précis, intégrés dans l'outil, encadrent la production : ils limitent les hallucinations, calibrent le style d'écriture, réduisent les allers-retours. Moins d'échanges avec le modèle, c'est aussi moins de données transmises, donc plus de conformité RGPD, une empreinte écologique réduite, et un résultat plus ajusté aux exigences professionnelles dès la première tentative.

Ce que je gagne, c'est du temps. Avant, faute de temps, je travaillais dans le global. Maintenant, je rentre dans la dentelle. DictIA me donne un support que je m'approprie, que je retravaille, que je signe. Ce n'est pas l'IA qui rédige à ma place. C'est moi qui rédige mieux, plus vite, en partant d'une base que j'ai construite pour correspondre exactement à ce que mon métier exige.

Cet outil a coûté environ cent euros. Mon employeur n'avait pas prévu de le financer. Il n'existait pas. Je l'ai construit parce que j'en avais besoin.

4. L'enfant qu'on ne peut pas rejoindre

Le deuxième problème que j'ai voulu résoudre n'avait pas non plus de solution institutionnelle. Dans mes évaluations en information préoccupante, je rencontre de plus en plus d'enfants passant entre dix et treize heures par jour sur les écrans. Des enfants qui jouent à la PlayStation pendant qu'on leur parle, dont l'attention ne tient pas cinq minutes dans un entretien classique. J'ai dû parfois mettre un minuteur pour capter leur attention sur une seule question.

Comment entrer en relation avec un enfant à l'attention courte, tout en recueillant sa parole, en évaluant le danger ou le risque de danger, et en menant mon évaluation à terme sans que l'entretien ressemble à un interrogatoire ?

La réponse que j'ai construite repose sur un principe simple : l'enfant ne répond pas à des questions. Il parle de son quotidien, avec ses mots, à son rythme. Je me place à sa hauteur. Je construis une conversation, pas une grille. Et c'est cette conversation qui produit l'évaluation.

Mon Histoire et Mon Éval' : recueillir la parole sans interroger

Mon Histoire s'adresse aux enfants pour lesquels la relation peine à s'installer. L'enfant parle de son quotidien avec ses mots. L'outil structure ce qu'il exprime selon les six domaines du livret 3 de la HAS, sans que l'enfant en ait conscience. Il répond par des curseurs, des smileys, il développe ses idées à sa façon. Sur chaque page, le professionnel dispose de sa propre zone de saisie pour noter ce qu'il observe, en expliquant à l'enfant l'importance de ce qu'il vient de dire. Ce moment a changé quelque chose que je n'avais pas anticipé : l'enfant lit ce que le professionnel écrit sur lui. Et ça renforce la relation de confiance.

Mon Éval' s'adapte aux enfants plus grands. Une conversation à leur hauteur, dans un registre qui leur ressemble, qui produit une évaluation clinique rigoureuse sans jamais ressembler à un interrogatoire.

Aucun de ces outils n'existait. Personne ne les avait conçus parce que personne n'avait posé la question depuis l'intérieur du métier.

5. Ce qu'on peut construire en direct, devant tout le monde

En mars 2026, j'interviens à Paris lors d'une session organisée par Delphis, pôle d'innovation dédié à l'habitat social qui réunit un réseau de plus de 70 bailleurs sociaux en France. Dans la salle, des professionnels de l'accompagnement social et du logement échangent sur leurs besoins concrets. Des besoins émergent. Je propose de prompter leurs idées directement dans l'IA, en recopiant leurs paroles au fur et à mesure.

En cinq minutes, une ébauche d'outil dédié à l'accompagnement budgétaire se présente à l'écran. Devant tout le monde. Elle fait l'unanimité. Je n'ai rien payé pour cette application. Dans les jours qui suivent, plusieurs participants me contactent pour savoir comment reproduire cette démarche.

Ce moment confirme quelque chose d'essentiel. La valeur n'est pas dans la technique. Elle est dans la capacité à écouter ce que les professionnels expriment, à le formuler précisément, et à le traduire immédiatement en quelque chose d'utile. Ce que je fais ce jour-là, aucun éditeur ne le fait : partir des besoins réels, formulés par ceux qui les vivent, pour construire en temps réel ce qui manque.

Delphis, Paris, mars 2026 : une application construite en séance

Des professionnels de l'accompagnement social et du logement expriment leurs besoins. Je recopie leurs mots dans l'IA au fur et à mesure. Je formule une demande précise à partir de ce qu'ils ont dit. En cinq minutes, une ébauche fonctionnelle se présente à l'écran.

Cet outil correspond exactement à ce que la salle avait exprimé. Il n'avait jamais existé avant cette session. Et il n'aurait pas existé si quelqu'un d'autre que les professionnels présents avait décidé de le concevoir.

6. Ce que ça change

David Puzos, docteur en sciences de l'éducation et directeur scientifique de Tisselia, a publié en 2025 une analyse de cette pratique (disponible sur tisselia.com). S'appuyant sur les travaux de Pierre Musso, il explique pourquoi ce renversement est structurel : pendant des décennies, les professionnels de terrain ont été exclus de la conception des outils qu'ils utilisaient. La technique restait l'affaire des techniciens. Cette barrière s'est abaissée.

« Pour la première fois, ce qui a de la valeur, ce n'est plus de savoir coder. C'est de savoir quoi construire. L'IA écrit le code. Le praticien apporte ce qu'elle ne peut pas produire : la connaissance des publics, l'éthique du métier, la compréhension fine des situations réelles. »
— David Puzos, Tisselia (2025)
Le vibe coding

Créer des outils numériques en dialoguant avec une intelligence artificielle plutôt qu'en écrivant du code. Le concepteur formule un besoin précis, l'IA génère la solution technique, le praticien teste, ajuste, valide. La compétence centrale n'est pas technique. Elle est dans la capacité à savoir exactement ce qu'on veut construire et pourquoi.

Je ne comprends pas l'infrastructure que je mobilise. Je ne sais pas coder. Mais je sais ce que vit un enfant de dix ans en situation d'évaluation IP. Je sais quel est le temps de l'humain dans un accompagnement budgétaire. Je sais ce que signifie "investissement maternel constant" dans un rapport de protection de l'enfance. Cette connaissance ne s'automatise pas. Elle ne s'achète pas. Elle s'acquiert en faisant le métier.

7. La question qui reste entière : comment diffuser ?

La question de la conception est en partie résolue. Celle de la diffusion ne l'est pas. Les travailleurs sociaux sont des mines d'or pour comprendre les besoins réels de la population. Ils voient ce que personne d'autre ne voit : les situations de précarité, les ruptures de parcours, les angles morts des politiques publiques. Cette connaissance est précieuse. Elle est aussi, trop souvent, invisible.

Le secteur n'a pas les compétences pour diffuser à grande échelle ce qu'il produit. Il n'a pas accès aux pouvoirs politiques de la même façon que la Tech. Et selon certains décideurs, les travailleurs sociaux ne rapportent pas d'argent. Ce que tout travailleur social sait être faux, parce que la prévention, l'accompagnement, la protection sont des investissements dont l'absence coûte infiniment plus cher que leur financement.

Ce qui manque aujourd'hui, c'est ce que David Puzos appelle des « communs numériques du travail social » : des espaces où les professionnels conçoivent ensemble, documentent leurs outils, les testent, les améliorent, les transmettent, avec la gouvernance que ça implique. Mes outils existent. Mais je les construis seul, sans communauté pour les faire vivre après moi. C'est la limite réelle de ce que j'ai fait.

8. Les limites éthiques que je veux nommer

Le fait qu'un praticien conçoive un outil ne le rend pas automatiquement éthique. Mes lignes rouges s'appliquent d'abord aux outils que je crée moi-même. Pas de scoring. Pas de prédiction. Pas de système qui oriente ou filtre les décisions professionnelles. Un outil conçu par un praticien peut très bien violer les droits des personnes accompagnées si son concepteur n'a pas réfléchi à ces questions avant de construire.

La culture maker a ses propres risques. David Puzos le formule clairement : « Sa version mainstream risque d'en être une édulcoration confortable, débarrassée de ces exigences. On pourrait très bien voir émerger une culture du faire rapide, individuelle, peu soucieuse du commun. » C'est précisément ce que je veux éviter. Construire vite ne dispense pas de construire bien. Et construire bien, dans notre secteur, suppose de ne jamais perdre de vue qui sont les personnes pour lesquelles on construit.

Question pour les institutions

Vos professionnels construisent peut-être déjà des outils dans leur coin, avec leurs propres moyens, parce que les vôtres ne répondent pas à leurs besoins réels. Est-ce que vous le savez ? Et est-ce que vous créez les conditions pour que cette capacité d'innovation devienne collective plutôt que solitaire ?

9. Prise de position

Ce que je défends ici n'est pas une thèse technologique. C'est quelque chose de plus simple et de plus précis : les professionnels de terrain ont une connaissance des situations réelles que personne d'autre ne possède, et cette connaissance mérite d'entrer dans la conception des outils qu'ils utilisent.

Pendant des années, cette connaissance était exclue du processus de conception parce que la technique constituait une barrière infranchissable. Cette barrière a disparu. C'est peut-être le changement le plus structurant que l'IA générative apporte à notre secteur : pas les outils qu'elle produit, mais le fait qu'elle rende possible leur création par ceux qui en ont besoin.

Ce renversement ne va pas de soi. Il suppose que les institutions libèrent du temps pour que les professionnels puissent concevoir, tester, partager. Il suppose une culture de la mutualisation, pas de l'innovation solitaire et invisible. Et il suppose une exigence éthique constante : savoir quoi ne pas construire est aussi important que savoir quoi construire.

Ce qui a de la valeur, ce n'est plus de savoir coder. C'est de savoir quoi construire. Et pour savoir quoi construire dans le travail social, il faut avoir conduit des entretiens, rédigé des rapports, accompagné des familles. Il faut avoir été dans la pièce.

Les outils qu'on nous a livrés depuis vingt ans ont été conçus sans nous.
Il est temps que ça change.

Références