La Frontière Éthique:
L'Implémentation de l'Intelligence Artificielle dans les Systèmes de Santé

preview
11 mars 2025
Éthique de l'IA

L'intégration de l'IA dans le domaine de la santé possède un potentiel transformateur pour améliorer les soins aux patients. Cependant, elle soulève également des considérations éthiques essentielles qu'il convient d’aborder afin d'assurer un déploiement juste et équitable1,2.
Dr. Julia Mukhova, responsable médicale chez Vivanti, et Kenza Benkirane, responsable de l'IA chez Vivanti, explorent et discutent de ce sujet majeur en s'appuyant sur leurs domaines d'expertise respectifs.

 

Avant d’aborder les préoccupations éthiques, passons en revue les principaux cadres de l'IA :

 
  • Apprentissage automatique (Machine Learning - ML): Algorithmes capables d'apprendre à exécuter une tâche sans être explicitement programmés. Ils utilisent des données pour faire des prédictions ou prendre des décisions. En santé, le ML peut analyser les dossiers des patients pour prédire les risques de maladies ou recommander des traitements sur la base de vastes ensembles de données3.
  • Vision par ordinateur (Computer Vision): Systèmes qui traitent et analysent les informations visuelles du monde réel. En santé, cela permet l'analyse automatisée d'images médicales, allant des radiographies aux lames de pathologie4.
  • Traitement du langage naturel (Natural Language Processing - NLP): Technologie qui traite et analyse le langage humain. Ce domaine inclut également les grands modèles de langage (LLMs), comme GPT (utilisé par ChatGPT), qui ont été entraînés sur de vastes ensembles de textes et peuvent comprendre et générer un texte proche du langage humain. En santé, ces modèles peuvent contribuer à la recherche médicale, à la documentation et à la communication avec les patients5.

 

Bien que la radiologie demeure l'application la plus répandue de l'IA en santé en raison de la grande disponibilité des images médicales6,7, le traitement du langage naturel (NLP) est de plus en plus utilisé. Cette adoption croissante est due à la numérisation des établissements de santé ainsi qu'à la nécessité d’aider les professionnels à gérer une charge de travail de plus en
plus lourde8,9,10.

 

Considérations Éthiques Fondamentales

 

L'implémentation de l’IA dans le domaine de la santé doit être guidée par des principes éthiques fondamentaux qui protègent les intérêts des patients tout en favorisant l’innovation.

 

1. Confidentialité des patients et protection des données

 

Le développement et l’exploitation des systèmes d’IA en santé nécessitent d’énormes quantités de données sensibles sur les patients. Dans les services de soins aigus, où l'accès immédiat aux informations des patients peut être crucial, un équilibre délicat doit être trouvé entre accessibilité des données et protection de la confidentialité11,12.

 

Les principales considérations incluent:

 

  • La mise en place d’un chiffrement robuste des données et de contrôles d’accès stricts
  • Le respect des réglementations sur la protection des données de santé
  • L’élaboration de protocoles clairs pour le partage et le stockage des données
  • Une communication transparente avec les patients sur l’utilisation de leurs données
 

2. Biais Algorithmique et Équité

 

L’un des enjeux éthiques les plus pressants dans l’IA appliquée à la santé est le biais algorithmique. Les systèmes d’IA apprennent à partir de données historiques, qui peuvent contenir des biais inhérents reflétant les inégalités sociétales en matière d’accès aux soins et de traitements médicaux. Dans les services de soins aigus, où des décisions rapides sont cruciales, ces biais pourraient entraîner des résultats discriminatoires affectant les populations vulnérables13,14,15.

 

Pour y remédier, les organisations de santé doivent:

 

  • Auditer régulièrement les systèmes d’IA afin d’identifier les biais selon différents groupes démographiques
  • Veiller à ce que les données d'entraînement représentent une population de patients diversifiée
  • Mettre en place des systèmes de surveillance continue pour détecter et corriger les biais en temps réel
  • Maintenir une transparence sur les limites connues et les biais potentiels des systèmes d’IA
 

Dr. JM: "La question du biais est extrêmement importante. D’un côté, nous avons l’obligation de corriger les injustices ancrées dans le passé. De l’autre, bien que cela fasse encore débat, nous ne pouvons ignorer l’existence de différences de genre et d’origine ethnique, qu’il s’agisse de variations physiologiques ou de réactions distinctes à certains médicaments. Il est donc essentiel d’adopter une approche équilibrée lors de la conception des bases de données sur lesquelles l’IA repose."

 

KB: Pour lutter efficacement contre le biais algorithmique en santé, il faut l’aborder à chaque étape du développement et du déploiement de l’IA:

 

  • Collecte des données: Comme l’a souligné Dr. Mukhova, la collecte de données peut involontairement exclure certaines populations. Par exemple, l'utilisation exclusive des dossiers médicaux électroniques peut laisser de côté les personnes ayant un accès limité aux soins de santé, biaisant ainsi les données en faveur des populations plus aisées ou urbaines.
  • Prétraitement des données: Les décisions prises lors du nettoyage des données peuvent introduire des biais. Par exemple, l’élimination des valeurs aberrantes pourrait désavantager les groupes minoritaires dont les tendances de santé diffèrent de la majorité.
  • Sélection des variables: Le choix des variables peut renforcer les biais. Par exemple, utiliser les codes postaux comme indicateurs indirects de l’origine ethnique peut entraîner des résultats injustes.
    Développement du modèle : Les algorithmes peuvent intégrer des biais en fonction de leur conception ou des critères d’optimisation choisis. Par exemple, privilégier la précision globale d’un modèle peut compromettre l’équité entre différents groupes démographiques.
  • Évaluation du modèle: Les métriques standards peuvent ne pas détecter certains biais ; évaluer les performances du modèle sur différents sous-groupes permet d’assurer une plus grande équité.
    Déploiement et surveillance : Une surveillance continue après le déploiement est essentielle, car l'utilisation en conditions réelles peut révéler de nouveaux biais.

 

En gardant un regard critique sur les biais à chaque étape, nous pouvons œuvrer à la création de systèmes d’IA qui ne sont pas seulement précis, mais aussi équitables dans leur application auprès de diverses populations de patients. Cette approche globale est essentielle pour instaurer la confiance dans les solutions de santé basées sur l’IA et garantir qu’elles bénéficient à tous les patients de manière équitable16."

 

picture

 

3. Transparence dans la Prise de Décision de l’IA 

 

La nature opaque des algorithmes d’IA basés sur l’apprentissage profond (« boîte noire ») pose des défis éthiques majeurs, en particulier dans les contextes de soins critiques où les cliniciens doivent comprendre et expliquer les décisions de traitement17.


Pour répondre aux préoccupations liées à la transparence :

 

  • Mettre en place des systèmes d’IA explicables lorsque cela est possible
  • Maintenir une documentation claire des processus de prise de décision de l’IA
  • Développer des protocoles pour gérer les situations où les recommandations de l’IA entrent en conflit avec le jugement clinique
  • Veiller à ce que les cliniciens comprennent à la fois les capacités et les limites des systèmes d’IA
 

Dr. JM: "Certains experts que je connais critiquent l’intelligence artificielle pour son manque de flexibilité dans la réflexion. Par exemple, l’IA peut identifier une caractéristique dominante et construire son raisonnement autour de celle-ci, agissant ainsi de manière ‘logique et directe’. Cependant, il existe des situations où il est nécessaire de considérer un facteur moins évident, même s’il semble insignifiant sur le moment. Dans ces cas-là, les médecins s’appuient souvent sur leur intuition. Pour que l’IA développe une forme similaire d’‘intuition’, elle aurait probablement besoin d’une base de données extrêmement diversifiée de cas cliniques."

 

KB: "Les systèmes d’IA actuels excellent dans la reconnaissance des caractéristiques dominantes, mais ils manquent souvent de compréhension causale et de conscience contextuelle, contrairement à l’intuition humaine, notamment dans des domaines complexes comme la médecine. Cette limitation découle de leur forte dépendance aux données d’entraînement et des défis liés à la généralisation à des situations inédites.


La recherche en IA causale, en méta-apprentissage et en approches neuro-symboliques vise à améliorer l’adaptabilité de l’IA et à imiter le raisonnement humain. Cependant, atteindre une véritable flexibilité cognitive comparable à l’intuition humaine – une exigence clé pour l’intelligence artificielle générale (AGI) – reste un défi non résolu.


En attendant, une solution pragmatique consiste à développer des modèles ajustés pour des tâches spécifiques18,19. Toutefois, cette stratégie nécessite une expertise approfondie du domaine ainsi qu’un grand volume de données d’entraînement de haute qualité, adaptées à la tâche cible. Ces modèles spécialisés, bien qu’efficaces dans leur champ d’application, exigent des ressources considérables pour leur développement et leur validation."

 

La quête d’équité et de justice dans l’accès aux soins devient encore plus complexe avec l’implémentation de l’IA. Un biais algorithmique non contrôlé peut perpétuer ou aggraver les inégalités existantes dans les soins de santé. Il est donc essentiel d’équilibrer la transparence et la responsabilité des systèmes d’IA avec leur complexité technique, afin d’assurer que patients et professionnels de santé puissent faire confiance aux décisions assistées par IA tout en maintenant un niveau de sophistication élevé19b.

 

Dr. JM: "La question essentielle est la suivante : où s’arrêtera la responsabilité d’un médecin lorsqu’il s’appuie sur un SaMD (Software as a Medical Device) pour la prise de décision ? Les médecins assument parfois l’entière responsabilité lorsqu’ils prennent des décisions risquées. Mais que se passe-t-il s’ils suivent les recommandations d’un SaMD officiellement utilisé dans leur clinique ? Et que faire si le SaMD propose une approche alors que l’expérience du médecin en suggère une autre ? Des directives claires sont indispensables pour protéger les médecins dans leur collaboration avec l’IA médicale."

 

KB: "Bien que les questions légales de responsabilité et d’obligation soient cruciales, le développement des modèles d’IA doit impérativement s’appuyer sur une collaboration étroite avec les professionnels de santé. Cette approche permet aux cliniciens d’évaluer les résultats des modèles de manière critique, d’intégrer des métriques fiables pour mesurer la confiance, d’établir des protocoles d’utilisation clairs et de définir les limites de responsabilité. En favorisant cette coopération, nous concevons des systèmes qui viennent en appui au jugement clinique, tout en préservant l’autonomie des médecins et la sécurité des patients."

 

picture

 

Cas d'utilisation et défis de mise en œuvre

 

1. Diagnostic clinique et imagerie médicale

 

Exemple spécifique : En radiologie et en imagerie thoracique, les modèles d'IA ont démontré leur capacité à détecter les lésions cancéreuses et à analyser les images médicales avec une précision comparable, voire supérieure, à celle des dermatologues humains, comme l'ont montré des études rigoureuses publiées dans des revues scientifiques20


Principaux points à considérer: 

 

  • La technologie s'est révélée prometteuse pour l'analyse des radiographies, des IRM et la détection des anomalies cancéreuses. 
  • Cependant, un problème de biais majeur est apparu avec les algorithmes de détection du cancer de la peau, principalement entraînés sur des populations à la peau claire, les rendant moins efficaces pour les personnes de couleur.
  • Cela souligne le besoin crucial de données d'entraînement diversifiées et représentatives.
 

Dr. JM: "Une publication récente a révélé que l'IA classait toutes les images de changements cutanés comme pathologiques uniquement en raison de la présence d'une règle. Cela met en évidence un double défi : bien que l'IA puisse identifier des nuances subtiles que l'œil humain pourrait manquer, il est crucial de signaler les cas nécessitant l'avis d'un spécialiste pour une seconde opinion. Les problèmes persistants incluent la précision des images ; les chirurgiens constatent souvent des écarts entre l'imagerie diagnostique et l'étendue réelle de la maladie. De plus, les images doivent être corrélées avec les observations cliniques. Nous devons également prendre en compte le risque de distorsion des données causé par des virus informatiques. L'IA peut-elle reconnaître les anomalies ou fournira-t-elle un diagnostic définitif mais trompeur ?"

 

KB: “Le problème de mauvaise classification des images par l'IA, illustré par l'exemple de la règle, démontre l'existence de corrélations fallacieuses dans les systèmes d'apprentissage profond. Cela met en évidence la nécessité de modèles fondamentaux spécifiquement adaptés au domaine médical et d'architectures affinées qui comprennent mieux les subtilités de l'imagerie clinique. Cependant, avec la recrudescence des cyberattaques alimentées par l'IA dans le secteur de la santé, nous devons prioriser à la fois la précision des modèles et des mesures de cybersécurité robustes pour protéger l'intégrité des systèmes. Le succès repose sur l'amélioration du développement des modèles, la mise en œuvre de protocoles de validation rigoureux et la promotion d'une collaboration significative entre les professionnels de santé et les systèmes d'IA.”

 

2. Triage des patients & allocation des ressources

 

Exemple spécifique : Pendant la pandémie de COVID-19, DeepSOFA a été développé comme une version IA du score Sequential Organ Failure Assessment (SOFA) afin d’aider à prédire la mortalité et guider les décisions d’allocation des ressources21


Principaux points à considérer : 

 

  • L’IA peut aider à optimiser l’utilisation des ressources limitées, comme les lits d’hôpitaux et les ventilateurs.
  • Elle soulève des préoccupations éthiques quant aux biais algorithmiques pouvant affecter l’accès aux soins.
  • Une supervision humaine est essentielle pour les décisions critiques en soins intensifs.
  • Il est nécessaire d’assurer une transparence totale sur la manière dont les algorithmes prennent leurs décisions de priorisation.
 

Dr. JM: "Refuser le maintien des fonctions vitales, arrêter un traitement ou d’autres interventions constitue l’étape la plus difficile pour un médecin, et souvent une tragédie pour le patient et ses proches.

 

Dans ces situations, quelle sera la capacité d’empathie de l’IA ? Se focalisera-t-elle uniquement sur l’optimisation des coûts et la gestion des lits disponibles ? Ou bien deviendra-t-elle une tentation pour les médecins de renoncer à leur raisonnement clinique et à leur responsabilité ? Nous verrons bien."

 

KB: "Il est essentiel de rappeler que l’IA, y compris les grands modèles de langage (LLMs), ne possède ni conscience ni réelle compréhension de la souffrance humaine. Ces systèmes se contentent de traiter des chaînes de texte ou de données numériques sur la base des schémas appris lors de leur entraînement.


Ils n’ont ni intelligence émotionnelle, ni empathie, ni la compréhension nuancée qu’apportent les professionnels de santé dans ces situations délicates. Cette limitation souligne l’importance de gérer les attentes quant aux capacités de l’IA dans les environnements médicaux.


Les professionnels de santé et les patients doivent être clairement informés de ce que l’IA peut et ne peut pas faire. L’IA doit venir en soutien à la prise de décision humaine, et non la remplacer, en particulier dans des contextes éthiquement complexes comme les soins de fin de vie.


De plus, les développeurs d’IA ont la responsabilité d’intégrer des considérations éthiques dans leurs conceptions. Même si l’IA ne peut pas éprouver d’empathie, il est possible d’implémenter des mécanismes permettant d’identifier les cas nécessitant une intervention humaine et de prioriser le bien-être des patients sur des considérations économiques."

 

picture

 

Orientations futures et recommandations

 

Pour garantir une mise en œuvre éthique de l’IA dans les environnements de soins aigus, nous recommandons les actions suivantes24,25,26

 

1. Développement d’un cadre réglementaire:

  • Élaborer des lignes directrices spécifiques pour l’utilisation de l’IA en soins aigus
  • Mettre en place des mécanismes clairs de responsabilité et d’imputabilité
  • Définir des standards rigoureux pour la validation et les tests des systèmes d’IA
 

2. Initiatives éducatives:

  • Déployer des programmes de formation complets pour les professionnels de santé
  • Développer des ressources pédagogiques pour informer les patients sur l’IA en médecine
  • Encourager la collaboration interdisciplinaire entre experts techniques et médicaux
 

3. Évaluation et amélioration continues

  • Évaluer régulièrement les performances et l’impact des systèmes d’IA
  • Assurer un suivi permanent des biais et des préoccupations éthiques
  • Mettre à jour continuellement les protocoles en fonction des nouvelles preuves et expériences
 

Conclusion


L’intégration de l’IA dans les environnements de soins aigus représente à la fois une opportunité exceptionnelle et un défi éthique majeur. La réussite repose sur un équilibre minutieux entre l’avancement technologique et une prise en charge éthique des patients. Comme le souligne justement le Dr Mokhova, l’IA doit être "un assistant, mais pas un médecin".


L’avenir exige un dialogue constant entre les professionnels de santé, les technologues, les éthiciens et les patients. En abordant les considérations éthiques de manière proactive et en maintenant le bien-être des patients au centre des préoccupations, nous pouvons exploiter le potentiel de l’IA tout en préservant l’élément humain, essentiel à la pratique médicale.


Seule une approche équilibrée garantira que l’IA remplisse son objectif premier : améliorer, et non remplacer, les éléments humains fondamentaux de la prestation des soins en milieu aigu.

 

À propos des auteurs

 
author avatar
Kenza Benkirane est responsable de l’IA chez Vivanti,

spécialisée dans le développement et la mise en œuvre de solutions d’IA éthiques en milieu médical. Forte d’une vaste expérience en intelligence artificielle et en apprentissage automatique, elle travaille à la création d’algorithmes robustes et impartiaux visant à améliorer la prestation des soins tout en respectant les normes éthiques.

 
author avatar
Dr. Julia Mokhova est responsable médicale chez Vivanti,

et apporte une large expérience clinique à l’intersection de la santé et de la technologie. Son approche pragmatique de l’intégration de l’IA en médecine veille à ce que les avancées technologiques servent avant tout à améliorer la prise en charge des patients, tout en préservant les éléments humains essentiels à la pratique médicale.

 

Références:

  1. Ong, J. J., De Luca, M., Hsia, C. C., & Khoo, X. Y. (2023). Artificial intelligence in dentistry: current applications and future perspectives. British Dental Journal, 234(9), 681-687. https://www.nature.com/articles/s41415-023-5845-2

  2. Panch, T., Mattie, H., & Atun, R. (2021). Artificial intelligence and algorithmic bias: implications for health systems. Journal of Global Health, 11, 07003. https://pmc.ncbi.nlm.nih.gov/articles/PMC8285156/

  3. Chen, A., & Chen, D. O. (2022). Simulating machine learning-enabled learning health systems using synthetic patient data. Scientific Reports, 12, 17917. https://www.nature.com/articles/s41598-022-23011-4

  4. Litjens, G., Kooi, T., Bejnordi, B. E., Setio, A. A. A., Ciompi, F., Ghafoorian, M., ... & Sánchez, C. I. (2017). A survey on deep learning in medical image analysis. Medical image analysis, 42, 60-88. https://www.sciencedirect.com/science/article/abs/pii/S1361841517301135

  5. Demner-Fushman, D., Chapman, W. W., & McDonald, C. J. (2009). What can natural language processing do for clinical decision support? Journal of biomedical informatics, 42(5), 760-772.

  6. Benjamens, S., Dhunnoo, P., & Meskó, B. (2020). The state of artificial intelligence-based FDA-approved medical devices and algorithms: an online database. Npj Digital Medicine 2020 3:1, 3(1), 1–8. https://doi.org/10.1038/s41746-020-00324-0

  7. Yordanova, M. Z. (2024). The Applications of Artificial Intelligence in Radiology: Opportunities and Challenges. European Journal of Medical and Health Sciences, 6(2), 11–14. https://doi.org/10.24018/EJMED.2024.6.2.2085

  8. Jiang, M., Sanger, T., & Liu, X. (2021). Natural Language Processing for Smart Healthcare. IEEE Journal of Biomedical and Health Informatics, 25(11), 4083-4099.

  9. Spasic, I., & Nenadic, G. (2020). Clinical Text Data in Machine Learning: Systematic Review. JMIR Medical Informatics, 8(3), e17984.

  10. World Economic Forum. (2022, July 27). Natural language processing could help alleviate healthcare worker shortage. https://www.weforum.org/agenda/2022/07/natural-language-processing-healthcare-worker-shortage/ 

  11. Kaissis, G.A., Makowski, M.R., Rückert, D. et al. Secure, privacy-preserving and federated machine learning in medical imaging. Nat Mach Intell 2, 305–311 (2020). 
https://doi.org/10.1038/s42256-020-0186-1

  12. Price, W. N., & Cohen, I. G. Privacy in the age of medical big data. Nature Medicine, 25(1), 37-43 (2019).
https://doi.org/10.1038/s41591-018-0272-7

  13. Aquino, Y. S. J., Carter, S. M., Houssami, N., Braunack-Mayer, A., Win, K. T., Degeling, C., Wang, L., & Rogers, W. A. (2023). Practical, epistemic and normative implications of algorithmic bias in healthcare artificial intelligence: a qualitative study of multidisciplinary expert perspectives. Journal of Medical Ethics, 0, 1–9. https://doi.org/10.1136/JME-2022-108850

  14. Lin, S. (2022). A Clinician’s Guide to Artificial Intelligence (AI): Why and How Primary Care Should Lead the Health Care AI Revolution. Journal of the American Board of Family Medicine, 35(1), 175. https://doi.org/10.3122/JABFM.2022.01.210226

  15. Vyas, D. A., Eisenstein, L. G., & Jones, D. S. (2020). Hidden in Plain Sight — Reconsidering the Use of Race Correction in Clinical Algorithms. New England Journal of Medicine, 383(9), 874–882. https://doi.org/10.1056/NEJMMS2004740

  16. Chin, M.H., Afsar-Manesh, N., Bierman, A.S., Chang, C., Colón-Rodríguez, C.J., Dullabh, P., Duran, D.G., Fair, M., Hernandez-Boussard, T., Hightower, M. and Jain, A., 2023. Guiding principles to address the impact of algorithm bias on racial and ethnic disparities in health and health care. JAMA Network Open, 6(12). https://doi.org/10.1001/jamanetworkopen.2023.45050

  17. Ghassemi, M., Oakden-Rayner, L., & Beam, A. L. (2021). The false hope of current approaches to explainable artificial intelligence in health care. The Lancet Digital Health, 3(11), e745-e750.

  18. Vaid, A., Landi, I., Nadkarni, G., & Nabeel, I. (2023). Using fine-tuned large language models to parse clinical notes in musculoskeletal pain disorders. The Lancet Digital Health, 5(12), e855–e858. https://doi.org/10.1016/S2589-7500(23)00202-9

  19. Wang, G., Yang, G., Du, Z., Fan, L., & Li, X. (2023). ClinicalGPT: Large Language Models Finetuned with Diverse Medical Data and Comprehensive Evaluation. ArXiv.Org. https://doi.org/10.48550/ARXIV.2306.09968

  20. Shevtsova, D., Ahmed, A., Boot, I. W. A., Sanges, C., Hudecek, M., Jacobs, J. J. L., Hort, S., & Vrijhoef, H. J. M. (2024). Trust in and Acceptance of Artificial Intelligence Applications in Medicine: Mixed Methods Study. JMIR Human Factors, 11, e47031. https://doi.org/10.2196/47031

  21. World Health Organisation. (2021). Ethics and governance of artificial intelligence for health: WHO guidance. OMS, 1, 1–148. http://apps.who.int/bookorders. Shickel, B., Loftus, T. J., Adhikari, L., Ozrazgat-Baslanti, T., Bihorac, A., & Rashidi, P. (2019). DeepSOFA: A Continuous Acuity Score for Critically Ill Patients using Clinically Interpretable Deep Learning. Scientific Reports 2019 9:1, 9(1), 1–12. https://doi.org/10.1038/s41598-019-38491-0

  22. Callaway, E. (2024). Chemistry Nobel goes to developers of AlphaFold AI that predicts protein structures. Nature, 634(8034), 525–526. https://doi.org/10.1038/D41586-024-03214-7

  23. Hswen, Y., & Brownstein, J. S. (2019). Real-Time Digital Surveillance of Vaping-Induced Pulmonary Disease. New England Journal of Medicine, 381(18), 1778–1780. https://doi.org/10.1056/NEJMC1912818/SUPPL_FILE/NEJMC1912818_DISCLOSURES.PDF

  24. Gerke, S., Minssen, T., & Cohen, G. (2020). Ethical and legal challenges of artificial intelligence-driven healthcare. Artificial Intelligence in Healthcare, 295-336.

  25. Sit, C., Srinivasan, R., Amlani, A., Muthuswamy, K., Azam, A., Monzon, L., & Poon, D. S. (2020). Attitudes and perceptions of UK medical students towards artificial intelligence and radiology: a multicentre survey. Insights into Imaging, 11(1), 1-6.

  26. Geis, J. R., Brady, A. P., Wu, C. C., Spencer, J., Ranschaert, E., Jaremko, J. L., ... & Kohli, M. (2019). Ethics of artificial intelligence in radiology: summary of the joint European and North American multisociety statement. Radiology, 293(2), 436-440.

Contactez
nous

Bonjour Vivanti, j'aimerais discuter d'une idée de projet avec vous.

ou

Participez!

Réalisez vos idées les plus intéressantes et les plus originales. Coopérons!

award-1award-1award-1award-1

États-Unis

address-icon
615 St. George Square Court,
Winston-Salem, NC 27103
Phone: +1 (706) 817-46-58

Royaume-Uni

address-icon
Unit 3A, 34-35 Hatton Garden,
Holborn, London, EC1N 8DX
Phone: +44 (0) 7471 179-024

Union Européenne

address-icon
Boulevard de France 9A,
Braine l'Alleud, 1420, Belgium
Phone: +32 (2) 808-82-92