La tunisie Medicale - 2018 ; Vol 96 ( n°010 ) : 774 - 788
[ Vu 345 fois ]
Résumé

Contexte :Malgré l’abondance des connaissances sur la performance hospitalière, la majorité des établissements de santé maghrébins ne disposent pas encore d’un Tableau de Bord Stratégique (TBS), pour sa mesure.
Objectif : Elaborer, via une revue systématique de la littérature biomédicale, un TBS de la performance hospitalière, composé d’indicateurs de la qualité de soins, fortement recommandés et adaptés aux contextes professionnel et managérial, des systèmes de santé maghrébins.
Matériel et méthodes : Il s’agit d’une étude « systematicreview » sur la thématique des indicateurs de mesure de la performance hospitalière. Une requête documentaire combinant les « Mesh Major Topic » relatifs aux deux descripteurs suivants « hôpitaux » et « indicateurs qualité santé », a été appliquée à la base de données « Medline », sur une période de dix ans (2004-2013). Un focus-group regroupant des médecins, des gestionnaires et des représentants des patients, a été constitué pour le choix d’un TBS des établissements de santé maghrébins, composé de 20 indicateurs systémiques.
Résultats : La lecture approfondie de 166 articles inclus dans l’étude, a permis de dégager 926 indicateurs d’évaluation de la qualité des soins. Il s’agit dans un cas sur trois d’indicateurs systémiques applicables aux établissements de santé polyvalents, et dans un cas sur deux d’indicateurs de processus centrés sur une activité des soins de santé. Suite aux travaux du focus-group, un TBS de performance hospitalière a été élaboré d’une manière consensuelle. Parmi ses indicateurs, 18 exploraient la dimension « soins » (durée moyenne de séjour, taux d’occupation des lits, taux de rotation des lits, taux d’accidents exposant au sang, taux d’admissions non planifiées, taux de sorties inappropriées, taux d’admissions prolongées, taux de prescription d’antibiotiques, taux de mortalité, taux d’infections associées aux soins, taux de réadmission, taux d’escarres, ratio patient/personnel, taux de rotation du personnel, tenue du dossier médical, délai d’envoi du compte-rendu d’hospitalisation, taux d’épuisement du personnel, taux de satisfaction des patients), et deux indicateurs étaient relatifs aux fonctions de formation et de recherche des établissements de santé (nombre d’heures de formation du personnel, taux de publication).
Conclusion : L’utilisation par les établissements de santé, de ce TBS, fondé sur les données actuelles de la littérature et adapté aux spécificités professionnelles maghrébines, serait une condition préliminaire pour le démarrage d’une stratégie de mesure et d’amélioration de la performance hospitalière aux pays du Maghreb.

Mots Clés
Article

INTRODUCTION
La performance d’une organisation est un concept mesurant le niveau de réalisation de ses objectifs préalablement fixés. Appliqué au secteur de la santé, un « hôpital performant » est une structure qui dispose de compétences professionnelles, d’une part dans « l’application des connaissances actuelles, des technologies et des ressources disponibles » et d’autre part dans « l’utilisation efficiente des ressources avec un risque minime pour le patient et l’assurance de sa satisfaction pour l’obtention de résultats sanitaires »1. L’amélioration de la performance hospitalière relève désormais des défis majeurs pour la continuité et la pérennité des systèmes de santé2. A cet égard, des progrès considérables ont été réalisés au niveau de l'évaluation et de la promotion de la qualité des soins2,3.
Actuellement, des pressions s’exercent sur les hôpitaux afin de lutter contre la persistance de défauts de qualité, et de prévenir les risques de manque de sécurité des patients3. Par ailleurs, la rationalisation des dépenses de santé, particulièrement en milieu hospitalier, est l’une des préoccupations majeures des autorités publiques4,5. Plusieurs facteurs (multitude des protocoles thérapeutiques, liberté de choix des structures de soins, difficultés budgétaires des systèmes d’assurance maladie, besoins croissants de la population, concurrence accrue entre les prestataires des soins) ont contribué à insérer la thématique de la performance des établissements de santé, au cœur de la politique de reforme du système de santé dans les pays à revenu intermédiaire tels que les pays du Grand Maghreb6. Son but essentiel est d’instaurer une stratégie privilégiant le recours aux meilleurs standards cliniques, assurant une plus haute qualité de soins aux patients et concordant aux principes de la transparence, de la responsabilité et de la crédibilité7.
Le management de la performance hospitalière, un sujet complexe faisant intervenir les différentes dimensions cliniques, managériales et psycho-sociales, requiert une approche multi sectorielle intégrant les différents acteurs du système de santé: les patients, les praticiens, les gestionnaires, les assureurs et les politiciens4. C’est pourquoi son monitorage est de plus en plus sollicité par les bailleurs des fonds internationaux tels que l’Organisation Mondiale de la Santé (OMS) et la Banque Mondiale4,8. Ce monitorage nécessite une batterie d’indicateurs fiables, objectifs, spécifiques et mesurables, détaillant les trois niveaux systémiques des activités hospitalières: les « ressources », les « processus » et les « résultats ». C’est ainsi que la mesure de performance trouve toute son importance : « qui veut s’améliorer doit se mesurer  et se comparer»9. Des centaines d’indicateurs d’évaluation de la qualité de soins et de mesure de la performance hospitalière, explorant les aspects cliniques, managériaux et relationnels, ont été proposées par la littérature biomédicale internationale au cours des dernières années 5,7.
En dépit de cette abondance des connaissances, les systèmes de santé maghrébins demeurent loin encore de mettre en place une stratégie coordonnée pour la collecte et l’analyse desindicateurs de qualité de soins, les privant d’une méthode efficace pour la promotion de la performance des établissements de santé10. Il est admis que l’usage d’une gestion fondée sur l’information avec une prise de décisions justifiées, permettrait d’éviter une utilisation irrationnelle des services de santé par tous les acteurs: patients, praticiens, managers et politiciens11,12. Ce qui explique le besoin absolu des systèmes de santé des pays du Maghreb, d’élaboration d’un Tableau de Bord Stratégique (TBS), permettant la mesure continue de la performance hospitalière et la réalisation d’un benchmarking entre les établissements de santé; d’où la conduite de cette revue systématique de la littérature internationale, point de départ d’élaboration d’un TBS, composé d’indicateurs pertinents et adaptés aux particularités du fonctionnement des hôpitaux maghrébins.
La mise en place de ce TBS aura un impact certain sur la qualité des services rendus aux patients, sur la rationalisation des dépenses de soins et sur la bonne gouvernance des structures de santé13. La mission du TBS, processus stratégique axé sur les données de planification et d'évaluation14, est de présenter, d’une manière transparente, une vue d'ensemble de la performance, comparant les résultats aux objectifs. C’est dans le but d’améliorer la performance des Etablissements Publics de Santé, dans les pays du Maghreb, que cette revue systématique a été réalisée, visant à collecter, via une revue de littérature, les indicateurs de la qualité de soins, recommandés pour la mesure de la performance hospitalière, et sélectionner, via un focus-group, les indicateurs les plus adaptés aux contextes professionnel et managérial des hôpitaux maghrébins.

MATERIEL ET METHODES 
Il s’agit d’une revue synthétique « SystematicReview » de la littérature biomédicale sur la thématique des indicateurs de mesure de la performance hospitalière, adoptant la méthodologie « Cochrane »15. Une requête documentaire combinant les mots clés majeurs « Mesh Major Topic » relatifs aux deux concepts suivants « hôpitaux » et «indicateurs qualité santé», a été appliquée à la base de données « Medline ». Cette requête a été limitée à une période de dix ans, allant de janvier 2004 jusqu’au décembre 2013. Les résultats de cette recherche documentaire ont été sélectionnés en fonction de la langue de la publication, soit en anglais soit en français, ainsi qu’en fonction de deux filtres suivants « full text » et « abstract ».
Ont été exclus de cette recherche documentaire, les articles sans auteurs, non disponibles, et peu focalisés sur les indicateurs (présentant plutôt des recommandations, des stratégies ou des scores). Les publications retenues ont fait l’objet d’analyse par trois lecteurs (un professeur de santé publique, un praticien hospitalier et un gestionnaire des services de santé), afin d’extraire les différents indicateurs d’évaluation de la performance hospitalière. Le listing de ces indicateurs a permis de quantifier leur occurrence et de les catégoriser. Ils ont été stratifiés, par la suite, selon leur sujet (champ, pathologie, population), leur nature (systémique, spécifique), leur typologie (ressource, processus, résultat), leur domaine (relationnel, clinique, managérial) et enfin leur mission (soins, enseignement, recherche).
Le champ de l’indicateur correspondait à son sujet principal (exemple : mortalité); le problème de santé, évalué par l’indicateur, a été classé dans la rubrique « pathologie ». Lorsque l’indicateur intéressait une tranche d’âge spécifique, un sexe particulier, ou une catégorie de patients, cette information a été précisée dans la variable « population ». La nature de l’indicateur a été jugée « systémique » s’il se rapportait à une structure hospitalière polyvalente, et « spécifique » s’il est approprié à un service de soins spécialisé. La typologie adoptée des indicateurs distingue: les ressources « input » (matériel, financier et humain), les processus « process » (activité des soins, de formation et de recherche) et les résultats « output » (mortalité, satisfaction, équilibre financier…).  Chaque indicateur a été décrit selon les trois domaines suivants : clinique (soins médicaux et chirurgicaux, nursing…), relationnel (communication avec le personnel soignant,…) et managérial (gestion administrative et financière). Conformément à la triple mission des structures hospitalières, chaque indicateur a été classé dans la catégorie qui lui est convenue: soins, enseignement, recherche.
Un focus-group composé de médecins cliniciens, de gestionnaires de services de santé et de représentants de la société civile, a été constitué pour le choix d’un TBS des établissements de santé. Composé de 20 indicateurs systémiques, ce TBS devrait répondre aux trois conditions suivantes : adéquation par rapport aux données actuelles de la science, applicabilité au système d’information hospitalier dans les pays à revenu intermédiaire et conformité aux préférences culturelles de la population générale du Maghreb.

RESULTATS 
Au total, 608 articles ont été identifiés, suite à l’application de la requête documentaire combinant les deux mots clés majeurs « hôpitaux » et « indicateurs qualité santé » dans la base de données « Medline ». L’usage des filtres d’antériorité « Publication dates » et de langue « Languages », ainsi que la disponibilité de textes intégraux « Full text » et  de résumés «Abstract », a permis de limiter les résultats de la recherche documentaire à 201 articles. L’utilisation des critères d’exclusion a réduit l’output de la requête documentaire, à seulement 166 articles. La figure n°1 détaille les motifs d’exclusion de ces publications.
Le tableau I résume les principales caractéristiques bibliométriques de 166 articles inclus dans cette revue systématique de littérature16-181. Il ressort que 20% de ces publications ont été publiées au cours de l’année 2012. Les deux revues les plus prolifiques, en matière de recherche sur les indicateurs de mesure de performance hospitalière, ont été : « BMC Health Services Research » et « International Journal for Quality in Health Care ». Dans six cas sur 10, ces papiers ont été édités dans des revues américaines, sous format d’articles originaux.
La lecture approfondie de ces articles àrévélé une liste de 926 indicateurs d’évaluation de la performance hospitalière dont les principales caractéristiques sont résumées au tableau II. Ces indicateurs ont été détaillés selon leur sujet (champ, pathologie, population). Il s’agit dans un cas sur trois d’indicateurs systémiques applicables aux établissements polyvalents de santé, et dans un cas sur deux, d’indicateurs de processus, centrés sur une activité des soins de santé. Parmi ces 926 indicateurs, 70% couvraient le domaine clinique et 97% intéressaient particulièrement la mission de soins dans l’établissement sanitaire.
Le groupe de travail a choisi316 indicateurs systémiques applicables aux hôpitaux généraux et ayant servi comme base de discussion des membres du focus-group pour l’élaboration d’un TBS composé de 20 indicateurs (tableau III), dont 18 relatifs aux soins. Neuf d’entre eux exploraient les activités hospitalières et sept intéressaient le management des services de santé.
Cinq indicateurs ont été les plus étudiés dans la littérature biomédicale (durée moyenne de séjour, taux d’accidents exposant au sang, taux de prescription d’antibiotiques, nombre d’heures de formation du personnel, taux d’admissions non planifiées), avec un nombre de références médian voisinant 5 000 articles indexés dans la base de données « Medline » avec des mots clés Mesh ou des mots clés similaires à ces indicateurs.

DISCUSSION
Après une première phase d’expansion des services de santé et une deuxième phase de généralisation de la couverture sanitaire182, les systèmes de santé maghrébins se sont engagés dans une politique de reforme et de mise à niveau, axée sur l’amélioration de la qualité des services et la maitrise des dépenses de santé. D’où le besoin d’un TBSdestiné à l’évaluation permanente de la performance hospitalière et à la réalisation d’un benchmarking entre les établissements de santé.Cette revue systématique de la littérature biomédicale a permis d’élaborer un TBS, basé sur un choix judicieux d’indicateurs pertinents et adaptés aux particularités du fonctionnement des hôpitaux maghrébins. L’analyse de ses résultats a mis en relief une prédominance des publications américaines, portant un intérêt croissant au sujet de la performance hospitalière au cours des dernières années, et une domination des indicateurs de soins, des indicateurs de processus et des indicateurs cliniques.
Prédominance des publications anglo-saxonnes :
La majorité des articles publiés sur la performance hospitalière a été d’origine anglo-saxonne. Cela peut être expliqué par les procédures de signalisation de la base de données « Medline », qui indexe systématiquement toutes les revues américaines, indépendamment de leur qualité. En plus, cela serait aussi expliqué par la naissance du concept de la qualité de soins et de la performance hospitalière aux Etats Unis, avec le développement des systèmes d’incitations financières, l’adoption des projets d’amélioration de la performance et le développement du système de Certification-Accréditation183-190.
Regain d’intérêt au cours des dernières années :
Notre étude a révélé que le 1/5ème des articles retenus sur les indicateurs de la performance hospitalière, a été publié au cours de l’année 2012, au fur et à mesure que l’importance du sujet de la performance hospitalière s’est accrue et s’est insérée au cœur de l’agenda des managers des systèmes de santé. Une première vague des publications antérieures à 2010, correspondait à la naissance du cadre conceptuel de la performance hospitalière, introduit par l’OMS, ayant incité les pays à faire de la performance hospitalière une préoccupation majeure188-190. Dans un second temps, la vague des publications sur la performance hospitalière, après 2010, traduirait la mise en application de ce concept, par l’élaboration de projets stratégiques, de « certification-accréditation », composés d’indicateurs de qualité de soins à mesurer dans les hôpitaux191-199.

Prédominance des indicateurs de « soins » :
Par analogie à la « performance clinique » des médecins (professionnels de santé hautement qualifié dans la dispensation des soins), les hôpitaux sont le plus souvent évalués par des indicateurs mesurant la conformité des soins, y fournis, avec les bonnes pratiques cliniques. Cette tendance de centrage sur les « soins hospitaliers » a été encouragée par les systèmes actuels de remboursement de prise en charge et d’assurance maladie, fondés sur les « actes de soins »200-205. En plus, l’efficience des systèmes de santé a été longtemps focalisée sur la maîtrise de l’évolution des coûts des soins de santé, sans altérer l’assurance de la qualité et de l’équité des services dispensés206.
Prédominance des indicateurs de « processus » :
L’analyse des catégories des 926 indicateurs de la qualité des soins, dans notre revue systématique, a mis en évidence une domination des indicateurs de « processus » par rapport aux indicateurs de « ressources » ou de « résultats ». Et quoique les mesures des résultats cliniques soient l’étalon pour l’évaluation de l’efficacité dans les services de santé, leur emploi peut être problématique, surtout dans les maladies chroniques. Les mesures des processus deviennent alors des signaux importants de réussite future. Elles se basent sur des actes ou des structures forcément associés aux résultats obtenus, sur le plan objectif (état de santé) et perceptuel (satisfaction)207-209. De plus, tout évaluer aussi rigoureusement (surtout par des indicateurs de résultats), relève simplement de l’absurde210.
Prédominance des indicateurs « cliniques » :
Dans cette revue systématique, le domaine clinique des indicateurs a été prédominant, en rapport avec l’assertion sur la qualité des soins qu’ils soient médicaux ou chirurgicaux, préoccupation suprême des praticiens ainsi que des patients. D’ailleurs, à la fin des années 90, la Grande Bretagne, a entrepris une réforme des services de santé, axée sur deux critères principaux: l’efficience et l’excellence. Au cœur de cette réforme, se trouve le concept de la gouvernance clinique  comprenantles éléments suivants: la recherche et le développement scientifique, l’audit clinique, l’efficacité clinique, la formation et le développement professionnel, la gestion des risques et la transparence. Ces composantes visent à inclure un ensemble d’éléments permettant aux acteurs d’être imputables des soins et des services rendus aux patients 211,212.

Tableau de Bord Stratégique :
C’est avec la quête de l’accréditation (dont l’élaboration du projet d’établissement et l’organisation en pôles) que le management par la qualité est devenu un axe prioritaire dans les hôpitaux, justifiant le besoin d’un TBS213-217. Il s’agit d’un document synthétique qui comprend des données relatives aux structures (hôpitaux, services ou unités), aux procédures et aux résultats des soins.Au cours des deux dernières décennies, plusieurs projets d'indicateurs de la performance des hôpitaux218-225ont été développés tels que le projet PATH de l'OMS-Europe (Outil d'Evaluation des Performances pour l'Amélioration de la Qualité dans les hôpitaux) et le projet COMPAQH (Coordination pour la Mesure de la Performance et l´Amélioration de la Qualité Hospitalière) de la HAS2.Une comparaison entre les indicateurs de notre TBS avec les indicateurs des projets PATH et COMPACH et de l’institut canadien d’informations sur la santé (ICIS)222 a conclu à la conformité dans la quasi-totalité des indicateurs, à l’exception du taux de publication et du nombre d’heures de formation du personnel en raison de leur limitation aux hôpitaux universitaires. Elle a permis aussi de classer les 20 indicateurs de ce TBS en trois catégories (tableau IV): les indicateurs primaires « de niveau I  », indispensables aux hôpitaux débutant la pratique de la mesure de la performance, les indicateurs secondaires « de niveau II », considérés comme des indicateurs complémentaires pour les hôpitaux à la quête de certification, et les indicateurs tertiaires « de niveau III », recommandés aux hôpitaux engagés dans une démarche d’accréditation.
Un TBS pour la performance hospitalière et après ?
Une fois le TBS élaboré, celui-ci doit être mis en œuvre et appliqué dans les établissements de santé. La construction d’un outil de pilotage n'est pas une fin en soi, elle devrait créer une dynamique dans l'hôpital et favoriser l'adhésion de tous ses acteurs à un projet commun, coordonné par les directions des systèmes d’information hospitalière et d’appui à la qualité226,227. La validité et la pertinence du TBS sont fortement corrélées à l’organisation des procédures de collecte, de traitement et de communication des données, sous format des indicateurs faciles à décoder et à interpréter216. Parmi les « succes story » de TBS hospitalier à l’échelle internationale, citons les exemples de la France, du Canada et de l’Algérie.
En France, les premiers indicateurs généralisés ont été élaborés par le projet COMPAQH, lancé en 2003228.Ils étaient au nombre de 11, relatifs à la tenue du dossier patient et du dossier anesthésique, ainsi qu’à la prise en charge de l’infarctus du myocarde après la phase aiguë. Ce dispositif a été à la fois ambitieux (condition nécessaire à la gestion interne des établissements, à la procédure de certification, et à la diffusion publique) et raisonnable (par le nombre limité d’indicateurs visés, par le mode de recueil exclusif de petits échantillons de séjours)228,229.
Au Québec, la performance constitue l’axe central de l’amélioration de la qualité du système de santé qui fait l’objet d’un plan d’envergure tant au niveau national que régional. L’évaluation de la performance des structures de santé canadiennes se réfère à un modèle à quatre dimensions, chacune est traduite par une série d’indicateurs: la production des soins; la capacité d’atteindre les objectifs; les réponses aux besoins de la population et le climat organisationnel dans l’établissement. Des techniques de Benchmarking, comparant les efforts des gestionnaires et des cliniciens, ont permis alors de déterminer le classement de la performance des structures de santé222.
En Algérie, comme tous les pays en développement, ayant mis la contractualisation au centre des réformes de leurs systèmes de santé, la gestion des établissements de santé est codifiée par un Contrat de Performance. Lancé en 2014, son objectif est de prendre en charge toutes les activités des établissements de santé dans la perspective d'améliorer le service public230,231. Dans ce contrat de performance, il est clairement signifié aux établissements de santé de prendre en charge la lutte contre les infections nosocomiales, la gestion des risques, l'amélioration des soins des urgences et l'élaboration de rapports trimestriels sur le déroulement de ces activités destinés aux services concernés230.
Finalement, quelques propositions méritent d’être énumérées, en se basant d’une part sur les résultats de cette revue systématique de la performance hospitalière et d’autre part sur la littérature biomédicale et les expériences internationales. Premièrement: la nomination, dans chaque établissement de santé, d’un « Référent de performance hospitalière » (chargé de la collecte, l’analyse et la communication des indicateurs de la qualité des soins) est fortement recommandée pour la valorisation du TBS, à travers des expériences pilotes de financement des hôpitaux selon leurs activités (Tarification A l’Activité : T2A) et selon leur niveau de performance (Payement For Performance : P4P). Deuxièmement, la formation pré-graduée, dans les facultés des sciences de la santé,dans le domaine du « management hospitalier » et de méthodologie de calcul, d’interprétation et de lecture critique des indicateurs retenus dans le TBS.Troisièmement, la conduite des études de benchmark, utilisant les TBS élaborés par notre revue systématique, entre les hôpitaux similaires des pays du Maghreb, entre les hôpitaux nationaux et entre les services cliniques similaires.
Limites méthodologiques:
Cette étude n’a pas été exempte de certaines insuffisances méthodologiques limitant faiblement sa validité. D’une part, la requête documentaire a été appliquée seulement à la base de données « Medline » avec des filtres d’antériorité et de langue. D’autres articles seraient indexés dans d’autres bases de données francophones telles que « Pascal » ou « Embase », ou non accessibles en « open access ». Néanmoins, ces insuffisances n’auraient qu’un faible impact sur la validité du travail, vue la pléthore d’indicateurs couvrant tous les domaines. D’autre part, l’extraction des indicateurs, à partir de l’ensemble des articles, a mis en évidence une confusion à propos de la définition de l’indicateur (rapport entre un numérateur et un dénominateur ou une simple donnée par défaut). En plus, des difficultés ont surgi lors du classement des indicateurs selon chaque catégorie (typologie, domaine, mission). Néanmoins, le travail en équipe multidisciplinaire a largement facilité, aussi bien la sélection que la catégorisation des indicateurs, d’une manière consensuelle.
Conclusion :
Cette revue systématique de la littérature, menée sur la base de donnée Medline pendant une durée de dix ans, a permis, suite à l’analyse de 166 articles, de repérer 926 indicateurs recommandés pour le management clinique, financier et relationnel des établissements de santé. Un focus-group composé de représentants de trois acteurs fondamentaux du système de santé (praticiens, gestionnaires, communauté) a sélectionné 20 indicateurs selon leur occurrence, couvrant les fonctions maitresses des établissements de santé (soins, formation et recherche), et selon leur adaptation au contexte maghrébin. Ce paquet minimum d’indicateurs a composé ainsi le premier TBS maghrébin des établissements de santé.
Ce tableau de bord contribuerait à l’amélioration de la qualité des soins dispensés à la population maghrébine, à la maitrise des dépenses de santé au Grand Maghreb et à la mise en place d’une gouvernance transparente et participative du secteur sanitaire. C’est un outil de pilotage, de planification stratégique, du dialogue sociétal, d’enseignement et de recherche dans le domaine de l’organisation des services de santé. Sa spécificité réside dans le fait qu’il soit d’une part fondé sur les données actuelles de la science et d’autre part adapté aux particularités de la pratique professionnelle hospitalière dans les pays du Maghreb.

Confits d’intérêt :
Tous les auteurs déclarent n‘ayant aucun conflit d’intérêt avec la thématique de recherche
Remerciements :
Ce travail a bénéficié du soutien de l’Unité de Recherche des Ministères de la Santé et de l’Enseignement Supérieur et de Recherche Scientifique, de la République Tunisienne : UR12SP36 : « Mesure de la PerformanceHospitalière »

Figure n°1 : Diagramme de processus de sélection des publications dans la revue systématique sur les indicateurs de la qualité de soins (requête du 15/10/2014)
Tableau I: Caractéristiques bibliométriques de 166 articles sur la thématique « indicateurs de qualité de soins », publiés entre 2004 et 2013 et indexés dans la base de donnée Medline

 

 

n

%

%cumulé

Année de publication

 

 

 

 

 

 

 

 

 

 

2004

18

10,8

10,8

2005

11

6,6

17,5

2006

15

9,0

26,5

2007

16

9,6

36,1

2008

17

10,2

46,4

2009

8

4,8

51,2

2010

14

8,4

59,6

2011

16

9,6

69,3

2012

34

20,5

89,8

2013

17

10,2

100,0

Auteur

 

 

 

 

 

 

 

 

Dimick, Justin B

5

3,0

3,0

Baghurst, Peter A

2

1,2

4,2

Jha, Ashish K

2

1,2

5,4

Scott, Ian A

2

1,2

6,6

Werner, Rachel M

2

1,2

7,8

Williams, Scott C

2

1,2

9,0

Autres

151

90,9

100,0

Revue

 

 

 

 

 

 

 

 

 

 

BMC Health ServRes

16

9,6

9,6

Int J Qual Health Care

15

9,0

18,7

JAMA

10

6,0

24,7

CircCardiovascQual Outcomes

6

3,6

28,3

Health Aff (Millwood)

6

3,6

31,9

Ann Surg

5

3,0

34,9

Health ServRes

5

3,0

38,0

J Am CollSurg

5

3,0

41,0

Autres

98

59,0

100,0

Pays

 

 

 

 

 

 

 

 

 

 

 

Etats Unis

90

54,2

54,2

Bretagne

13

7,8

62,0

Australie

9

5,4

67,5

Canada

9

5,4

72,9

Pays-Bas

8

4,8

77,7

Brésil

4

2,4

80,1

France

4

2,4

82,5

Allemagne

3

1,8

84,3

Italie

3

1,8

86,1

Danemark

2

1,2

87,3

Espagne

2

1,2

88,6

Autres

19

11,4

100,0

Type d’article

 

 

 

 

 

Article original

105

63,3

63,3

Etude comparative

23

13,9

77,1

Etude d’évaluation

12

7,2

84,3

Revue systématique

8

4,8

89,2

Etude rétrospective

5

3,0

92,2

Etude de cohorte

4

2,4

94,6

Autres

9

5,4

100,0


Tableau II: Caractéristiques des 926 indicateurs de qualité de soins,  extraits des articles publiés entre 2004 et 2013 et indexés dans la base de données Medline

 

Type

n

%

Nature

 

Systémique

316

34,1

Spécifique

610

65,9

Typologie

 

Ressources

155

16,7

Processus

445

48,1

Résultats

326

35,2

Domaine

 

Relationnel

57

6,2

Clinique

662

71,4

Managérial

207

22,4

Mission

 

Soins

901

97,3

Enseignement

17

1,8

Recherche

8

0,9

Sujet

Champ

Traitement

124

13,4

Complications

86

9,3

Mortalité

67

7,2

Hôpital

63

6,8

Evaluation

51

5,5

Personnel

42

4,5

Antibiothérapie

32

3,5

Finance

32

3,5

Surveillance

30

3,2

Admission

24

2,6

Réadmission

24

2,6

Autres

351

37,9

Pathologie

Infections nosocomiales

54

5,8

Syndrome coronarien aigu

51

5,5

Pneumonie

37

4,0

Accident vasculaire cérébral

29

3,1

Cancers

25

2,7

Insuffisance cardiaque

21

2,3

Cancer du sein

19

2,1

Diabète

17

1,8

Infection urinaire

15

1,6

Cancer colorectal

13

1,4

Autres

652

70,4

Population

Patients opérés

62

6,7

Patients avec syndrome coronarien aigu

35

3,8

Personnel de santé

33

3,6

Patients avec accident vasculaire cérébral

25

2,7

Patients avec une durée moyenne de séjour prolongée

22

2,4

Patients avec insuffisance cardiaque

20

2,2

Patients hospitalisés

19

2,1

Patients diabétiques

18

1,9

Patients ayant des cancers

17

1,8

Patients avec pneumonie

17

1,8

Autres

658

71,0


Tableau III : Tableau de Bord Stratégique proposé pour le management des établissements de santé dans les pays du Grand Maghreb


Tableau VI : Catégorisation des indicateurs du Tableau de Bord Stratégique selon le consensus des systèmes de monitorage de la performance hospitalière

Indicateurs de Performance

de niveau I

Indicateurs de Performance

de niveau II

Indicateurs de Performance

de niveau III

1. Durée moyenne de séjour

1. Taux de prescription d’antibiotiques

1.Taux d’occupation des lits

2. Taux d’accidents exposant au sang

2. Taux d’infections associées aux soins

2.Taux de rotation des lits

3. Taux de mortalité intra-hospitalière

3. Taux de rotation du personnel

3.Taux d’admissions non planifiées

4. Taux de réadmission

4. Tenue du dossier médical

 

4.Taux de sorties inappropriées

5. Taux d’escarres

5. Délai d’envoi du compte-rendu d’hospitalisation

5.Taux d’admissions prolongées

6. Taux de satisfaction des patients

6. Taux d’épuisement du personnel

6. Ratio patient/personnel

 

 

 

7. Taux de publication

 

 

8.Nombre d’heures de formation du personnel

Références
  1. World Health Organization. Measuring hospital performance to improve the quality of care in Europe: a need for clarifying the concepts and defining the main dimension. Report on a WHO Workshop Barcelona, Spain; 2003. p. 10-1.
  2. Groene O, Skau JK, Frolich A. An international review of projects on hospital performance assessment. Int J Qual Health Care 2008;20:162-71.
  3. Groene O, Botje D, Sunol R, Lopez MA, Wagner C. A systematic review of instruments that assess the implementation of hospital quality management systems. Int J Qual Health Care 2013;25:525-41.
  4. Smith P, Mossialos E, Papanicolas I. Mesure des performances pour l’amélioration des systèmes de santé: expériences, défis et perspectives. Genève : OMS; 2008.
  5. Organisation Mondiale de la Santé. Améliorer la performance des hôpitaux dans la Région de la Méditerranée orientale. Genève : OMS; 2009.
  6. Murray CJ, Frenk J. Un cadre pour l'évaluation de la performance des systèmes de santé. Bull World Health Organ 2000;78:717-31.
  7. Tooker J. The importance of measuring quality and performance in healthcare. Med Gen Med 2005;7:49.
  8. La Banque Mondiale. République Tunisienne: étude du secteur de la santé. Washignton : World Bank; 2006.
  9. Or Z, Com-Ruelle L. La qualité de soins en France: comment la mesurer pour l'améliorer?. Jgestion economie med 2008;26:371-85.
  10. Bungener M, Camau M, Zaïem M, Bahri H. État de santé, besoin médical et enjeux politiques en Tunisie. Annales Économies, Sociétés,Civilisations; 1992: EHESS. p. 1225-6.
  11. Kholladi M-K. Les systèmes d’informations en gestion médicale d’un centre hospitalo-universitaire. Conférence de l’URMEDCO; 1995.
  12. Une meilleure politique pour une meilleure santé. (Accessed 10/05/2013, at http://web.worldbank.org/archive/website01055/WEB/IMAGES/MNA_HP-2.PDF.)
  13. Buisson T. Le Tableau de bord: instrument de pilotage de la performance pour le directeur des soins. Mémoire de l’Haute Etude en Santé Publique (EHESP); 2008.
  14. Hwa M, Sharpe BA, Wachter RM. Development and implementation of a balanced scorecard in an academic hospitalist group. J Hosp Med 2013;8:148-53.
  15. Centre Cochrane Français.(Accessed 15/10/2014, at http://www.cochrane.fr/.)
  16. Baghurst PA. The case for retaining severe perineal tears as an indicator of the quality of obstetric care. Aust N Z J ObstetGynaecol 2013;53:3-8.
  17. Nayar P, Ozcan YA, Yu F, Nguyen AT. Benchmarking urban acute care hospitals: efficiency and quality perspectives. Health Care Manage Rev 2013;38:137-45.
  18. Wellens NI, Verbeke G, Flamaing J, et al. Clinical changes in older adults during hospitalization: responsiveness of the interRAI acute care instrument. J Am GeriatrSoc 2013;61:799-804.
  19. Cohen ME, Ko CY, Bilimoria KY, et al. Optimizing ACS NSQIP modeling for evaluation of surgical quality and risk: patient risk adjustment, procedure mix adjustment, shrinkage adjustment, and surgical focus. J Am CollSurg 2013;217:336-46 e1.
  20. Dimick JB, Staiger DO, Hall BL, Ko CY, Birkmeyer JD. Composite measures for profiling hospitals on surgical morbidity. Ann Surg 2013;257:67-72.
  21. Piela NE, Sacchetti A, Sholevar D, Blaber R, Levi S. Impact of ED management on hospital quality measures: the negative case of atrial fibrillation. Am J Emerg Med 2013;31:822-4.
  22. Carretta HJ, Chukmaitov A, Tang A, Shin J. Examination of hospital characteristics and patient quality outcomes using four inpatient quality indicators and 30-day all-cause mortality. Am J Med Qual 2013;28:46-55.
  23. Desalegn AA. Assessment of drug use pattern using WHO prescribing indicators at Hawassa University Teaching and Referral Hospital, south Ethiopia: a cross-sectional study. BMC Health Serv Res 2013;13:170.
  24. Kiadaliri AA, Jafari M, Gerdtham UG. Frontier-based techniques in measuring hospital efficiency in Iran: a systematic review and meta-regression analysis. BMC Health Serv Res 2013;13:312.
  25. Anema HA, Kievit J, Fischer C, Steyerberg EW, Klazinga NS. Influences of hospital information systems, indicator data collection and computation on reported Dutch hospital performance indicator scores. BMC Health Serv Res 2013;13:212.
  26. Brand CA, Barker AL, Morello RT, et al. A review of hospital characteristics associated with improved performance. Int J Qual Health Care 2012;24:483-94.
  27. Biscione FM, Couto RC, Pedrosa TM. Performance, revision, and extension of the National Nosocomial Infections Surveillance system's risk index in Brazilian hospitals. Infect Control HospEpidemiol 2012;33:124-34.
  28. Campbell MJ, Jacques RM, Fotheringham J, Maheswaran R, Nicholl J. Developing a summary hospital mortality index: retrospective analysis in English hospitals over five years. Br Med J (Clin Res Ed) 2012;344:e1001.
  29. Vogel L. Imperfect measure of hospital safety. CMAJ 2012;184:E451-2.
  30. Siddiqi S, Elasady R, Khorshid I, et al. Patient Safety Friendly Hospital Initiative: from evidence to action in seven developing country hospitals. Int J Qual Health Care 2012;24:144-51.
  31. Bernal-Delgado E, Garcia-Armesto S, Martinez-Lizaga N, Abadia-Taira B, Beltran-Peribanez J, Peiro S. Should policy-makers and managers trust PSI? An empirical validation study of five patient safety indicators in a national health service. BMC Med Res Methodol 2012;12:19.
  32. Kurlansky PA, Argenziano M, Dunton R, et al. Quality, not volume, determines outcome of coronary artery bypass surgery in a university-based community hospital network. J ThoracCardiovascSurg 2012;143:287-93.
  33. Sinaiko AD, Eastman D, Rosenthal MB. How report cards on physicians, physician groups, and hospitals can have greater impact on consumer choices. Health Aff (Millwood) 2012;31:602-11.
  34. Ryan AM, Nallamothu BK, Dimick JB. Medicare's public reporting initiative on hospital quality had modest or no impact on mortality from three key conditions. Health Aff (Millwood) 2012;31:585-92.
  35. Ryan A, Blustein J. Making the best of hospital pay for performance. N Engl J Med 2012;366:1557-9.
  36. Maddox TM, Ho PM, Tsai TT, et al. Clopidogrel use and hospital quality in medically managed patients with non-ST-segment-elevation myocardial infarction. CircCardiovascQual Outcomes 2012;5:523-31.
  37. Ahmed N, Taylor K, McDaniel Y, Dyer CB. The role of an Acute Care for the Elderly unit in achieving hospital quality indicators while caring for frail hospitalized elders. Popul Health Manag 2012;15:236-40.
  38. Kozower BD, Stukenborg GJ. Lung cancer resection volume: is procedure volume really an indicator of quality? SeminThoracCardiovascSurg 2012;24:93-8.
  39. Curtis JP, Geary LL, Wang Y, et al. Development of 2 registry-based risk models suitable for characterizing hospital performance on 30-day all-cause mortality rates among patients undergoing percutaneous coronary intervention. CircCardiovascQual Outcomes 2012;5:628-37.
  40. Girotra S, Cram P, Popescu I. Patient satisfaction at America's lowest performing hospitals. CircCardiovascQual Outcomes 2012;5:365-72.
  41. Brogan TV, Hall M, Williams DJ, et al. Variability in processes of care and outcomes among children hospitalized with community-acquired pneumonia. Pediatr Infect Dis 2012;31:1036-41.
  42. Fonarow GC, Pan W, Saver JL, et al. Comparison of 30-day mortality models for profiling hospital performance in acute ischemic stroke with vs without adjustment for stroke severity. JAMA 2012;308:257-64.
  43. Ross JS, Bernheim SM, Lin Z, et al. Based on key measures, care quality for Medicare enrollees at safety-net and non-safety-net hospitals was almost equal. Health Aff (Millwood) 2012;31:1739-48.
  44. Miller AL, Dib C, Li L, et al. Left ventricular ejection fraction assessment among patients with acute myocardial infarction and its association with hospital quality of care and evidence-based therapy use. CircCardiovascQual Outcomes 2012;5:662-71.
  45. Lankiewicz JD, Yokoe DS, Olsen MA, et al. Beyond 30 days: does limiting the duration of surgical site infection follow-up limit detection? Infect Control HospEpidemiol 2012;33:202-4.
  46. Dimick JB, Ghaferi AA, Osborne NH, Ko CY, Hall BL. Reliability adjustment for reporting hospital outcomes with surgery. Ann Surg 2012;255:703-7.
  47. Klompas M, Kleinman KP, Karcz A. Variability in mean duration of mechanical ventilation among community hospitals. Infect Control HospEpidemiol 2012;33:635-7.
  48. Kilic A, Weiss ES, Yuh DD, et al. Institutional factors beyond procedural volume significantly impact center variability in outcomes after orthotopic heart transplantation. Ann Surg 2012;256:616-23.
  49. LaPar DJ, Kron IL, Jones DR, Stukenborg GJ, Kozower BD. Hospital procedure volume should not be used as a measure of surgical quality. Ann Surg 2012;256:606-15.
  50. Visser BC, Ma Y, Zak Y, Poultsides GA, Norton JA, Rhoads KF. Failure to comply with NCCN guidelines for the management of pancreatic cancer compromises outcomes. HPB (Oxford) 2012;14:539-47.
  51. Keyhani S, Cheng E, Arling G, et al. Does the inclusion of stroke severity in a 30-day mortality model change standardized mortality rates at Veterans Affairs hospitals? CircCardiovascQual Outcomes 2012;5:508-13.
  52. Renzi C, Sorge C, Fusco D, Agabiti N, Davoli M, Perucci CA. Reporting of quality indicators and improvement in hospital performance: the P.Re.Val.E. Regional Outcome Evaluation Program. Health Serv Res 2012;47:1880-901.
  53. Flotta D, Rizza P, Coscarelli P, Pileggi C, Nobile CG, Pavia M. Appraising hospital performance by using the JCHAO/CMS quality measures in Southern Italy. PloS One 2012;7:e48923.
  54. van der Geest LG, Krijnen P, Wouters MW, et al. Improved guideline compliance after a 3-year audit of multidisciplinary colorectal cancer care in the western part of the Netherlands. J SurgOncol 2012;106:1-9.
  55. Smolders KH, Den Ouden AL, Nugteren WA, Van Der Wal G. Does public disclosure of quality indicators influence hospitals' inclination to enhance results? Int J Qual Health Care 2012;24:129-34.
  56. van Rosse F, de Bruijne MC, Wagner C, Stronks K, Essink-Bot ML. Design of a prospective cohort study to assess ethnic inequalities in patient safety in hospital care using mixed methods. BMC Health Serv Res 2012;12:450.
  57. Ikkersheim DE, Koolman X. Dutch healthcare reform: did it result in better patient experiences in hospitals? A comparison of the consumer quality index over time. BMC Health Serv Res 2012;12:76.
  58. Wiedmann S, Norrving B, Nowe T, et al. Variations in quality indicators of acute stroke care in 6 European countries: the European Implementation Score (EIS) Collaboration. Stroke 2012;43:458-63.
  59. Stausberg J, Halim A, Farber R. Concordance and robustness of quality indicator sets for hospitals: an analysis of routine data. BMC Health Serv Res 2011;11:106.
  60. Alkhenizan A, Shaw C. Impact of accreditation on the quality of healthcare services: a systematic review of the literature. Ann Saudi Med 2011;31:407-16.
  61. Gabriel CS, Melo MR, Rocha FL, Bernardes A, Miguelaci T, Silva Mde L. Use of performance indicators in the Nursing Service of a public hospital. Rev Lat Am Enfermagem 2011;19:1247-54.
  62. Williams G, Pattison G, Mariathas C, Lazar J, Rashied M. Improving parental satisfaction in pediatric orthopaedics. J Pediatr Orthop 2011;31:610-5.
  63. Kao LS, Ghaferi AA, Ko CY, Dimick JB. Reliability of superficial surgical site infections as a hospital quality measure. J Am CollSurg 2011;213:231-5.
  64. Shahian DM, Nordberg P, Meyer GS, et al. Predictors of nonadherence to national hospital quality measures for heart failure and pneumonia. Am J med 2011;124:636-46.
  65. Hernandez AF, Fonarow GC, Liang L, Heidenreich PA, Yancy C, Peterson ED. The need for multiple measures of hospital quality: results from the Get with the Guidelines-Heart Failure Registry of the American Heart Association. Circulation 2011;124:712-9.
  66. Osborne NH, Ghaferi AA, Nicholas LH, Dimick JB, Mph M. Evaluating popular media and internet-based hospital quality ratings for cancer surgery. Arch Surg 2011;146:600-4.
  67. Schmaltz SP, Williams SC, Chassin MR, Loeb JM, Wachter RM. Hospital performance trends on national quality measures and the association with Ioint Commission accreditation. J Hosp Med 2011;6:454-61.
  68. Sharek PJ, Parry G, Goldmann D, et al. Performance characteristics of a methodology to quantify adverse events over time in hospitalized patients. Health Serv Res 2011;46:654-78.
  69. Morse RB, Hall M, Fieldston ES, et al. Hospital-level compliance with asthma care quality measures at children's hospitals and subsequent asthma-related outcomes. JAMA 2011;306:1454-60.
  70. Ayieko P, Ntoburi S, Wagai J, et al. A multifaceted intervention to implement guidelines and improve admission paediatric care in Kenyan district hospitals: a cluster randomised trial. PLoS Med 2011;8:e1001018.
  71. Rabbani F, Lalji SN, Abbas F, et al. Understanding the context of balanced scorecard implementation: a hospital-based case study in Pakistan. Implement Sci 2011;6:31.
  72. Mears A, Vesseur J, Hamblin R, Long P, Den Ouden L. Classifying indicators of quality: a collaboration between Dutch and English regulators. Int J Qual Health Care 2011;23:637-44.
  73. Chua CL, Palangkaraya A, Yong J. A two-stage estimation of hospital quality using mortality outcome measures: an application using hospital administrative data. Health Econ 2010;19:1404-24.
  74. Baghurst PA. The trouble with clinical indicators: Intact lower genital tract following childbirth in NSW Hospitals, 2003-2005. Aust N Z J ObstetGynaecol 2010;50:45-50.
  75. Wong HJ, Wu RC, Caesar M, Abrams H, Morra D. Real-time operational feedback: daily discharge rate as a novel hospital efficiency metric. QualSaf Health Care 2010;19:e32.
  76. Mitka M. Researchers hope measuring performance will improve stroke care and prevention. JAMA 2010;303:17-8.
  77. Werner RM, Bradlow ET. Public reporting on hospital process improvements is linked to better patient outcomes. Health Aff (Millwood) 2010;29:1319-24.
  78. Anderson M, Zito D, Kongable G. Benchmarking glucose results through automation: the 2009 Remote Automated Laboratory System Report. J Diabetes SciTechnol 2010;4:1507-13.
  79. Landercasper J, Ellis RL, Mathiason MA, et al. A community breast center report card determined by participation in the national quality measures for breast centers program. Breast J 2010;16:472-80.
  80. Hayman AV, Chang ET, Molokie RE, Kahng LS, Prystowsky JB, Bentrem DJ. Assessing compliance with national quality measures to improve colorectal cancer care at the VA. Am J Surg 2010;200:572-6.
  81. Khare RK, Courtney DM, Kang R, Adams JG, Feinglass J. The relationship between the emergent primary percutaneous coronary intervention quality measure and inpatient myocardial infarction mortality. AcadEmerg Med 2010;17:793-800.
  82. Minvielle E, Leleu H, Capuano F, Grenier C, Loirat P, Degos L. Suitability of three indicators measuring the quality of coordination within hospitals. BMC Health Serv Res 2010;10:93.
  83. Miyata H, Hashimoto H, Horiguchi H, Fushimi K, Matsuda S. Assessment of hospital performance with a case-mix standardized mortality model using an existing administrative database in Japan. BMC Health Serv Res 2010;10:130.
  84. Nirel N, Rosen B, Sharon A, et al. The impact of an integrated hospital-community medical information system on quality and service utilization in hospital departments. Int J Med Inform 2010;79:649-57.
  85. van Lent WA, de Beer RD, van Harten WH. International benchmarking of specialty hospitals. A series of case studies on comprehensive cancer centres. BMC Health Serv Res 2010;10:253.
  86. Copnell B, Hagger V, Wilson SG, Evans SM, Sprivulis PC, Cameron PA. Measuring the quality of hospital care: an inventory of indicators. Intern Med J 2009;39:352-60.
  87. Blais R, Champagne F, Rousseau L. TOCSIN: a proposed dashboard of indicators to control healthcare-associated infections. Healthc Q 2009;12 Spec No Patient:161-7.
  88. Singer S, Lin S, Falwell A, Gaba D, Baker L. Relationship of safety climate and safety performance in hospitals. Health Serv Res 2009;44:399-421.
  89. Yasaitis L, Fisher ES, Skinner JS, Chandra A. Hospital quality and intensity of spending: is there an association? Health Aff (Millwood) 2009;28:w566-72.
  90. Dimick JB, Osborne NH, Nicholas L, Birkmeyer JD. Identifying high-quality bariatric surgery centers: hospital volume or risk-adjusted outcomes? J Am CollSurg 2009;209:702-6.
  91. Afshar N, Tabas J, Afshar K, Silbergleit R. Blood cultures for community-acquired pneumonia: are they worthy of two quality measures? A systematic review. J Hosp Med 2009;4:112-23.
  92. Merle V, Moret L, Pidhorz L, et al. Does comparison of performance lead to better care? A pilot observational study in patients admitted for hip fracture in three French public hospitals. Int J Qual Health Care 2009;21:321-9.
  93. de Vos M, Graafmans W, Kooistra M, Meijboom B, Van Der Voort P, Westert G. Using quality indicators to improve hospital care: a review of the literature. Int J Qual Health Care 2009;21:119-29.
  94. Vonberg RP, Sander C, Gastmeier P. Consumer attitudes about health care acquired infections: a German survey on factors considered important in the choice of a hospital. Am J Med Qual 2008;23:56-9.
  95. Joseph AP, Hunyor SN. The Royal North Shore Hospital inquiry: an analysis of the recommendations and the implications for quality and safety in Australian public hospitals. Med J Aust 2008;188:469-72.
  96. Barros AJ, Matijasevich A, Santos IS, Albernaz EP, Victora CG. Neonatal mortality: description and effect of hospital of birth after risk adjustment. Rev Saude Publica 2008;42:1-9.
  97. Groene O, Klazinga N, Kazandjian V, Lombrail P, Bartels P. The World Health Organization Performance Assessment Tool for Quality Improvement in Hospitals (PATH): an analysis of the pilot implementation in 37 hospitals. Int J Qual Health Care 2008;20:155-61.
  98. Jha AK, Orav EJ, Ridgway AB, Zheng J, Epstein AM. Does the Leapfrog program help identify high-quality hospitals? JtComm J Qual Patient Saf 2008;34:318-25.
  99. Normand SL, Wolf RE, McNeil BJ. Discriminating quality of hospital care in the United States. Med Decis Making 2008;28:308-22.
  100. Johnson MA, Normand SL, Krumholz HM. Cardiology patient pages. How are our hospitals measuring up?: "hospital compare": a resource for hospital quality of care. Circulation 2008;118:e498-500.
  101. Mehta RH, Liang L, Karve AM, et al. Association of patient case-mix adjustment, hospital process performance rankings, and eligibility for financial incentives. JAMA 2008;300:1897-903.
  102. Kreimer S. Medical education. Workload, not just hours, impacts quality of care provided by medical residents. The Institute of Medicine and others look at restructuring caseloads. Hosp Health Netw 2008;82:11.
  103. McDonald KM, Davies SM, Haberland CA, Geppert JJ, Ku A, Romano PS. Preliminary assessment of pediatric health care quality and patient safety in the United States using readily available administrative data. Pediatr Rev 2008;122:e416-25.
  104. Kritchevsky SB, Braun BI, Bush AJ, et al. The effect of a quality improvement collaborative to improve antimicrobial prophylaxis in surgical patients: a randomized trial. Ann Intern Med 2008;149:472-80, W89-93.
  105. Leibson CL, Needleman J, Buerhaus P, et al. Identifying in-hospital venous thromboembolism (VTE): a comparison of claims-based approaches with the Rochester Epidemiology Project VTE cohort. Med Care 2008;46:127-32.
  106. Dimick JB, Birkmeyer JD. Ranking hospitals on surgical quality: does risk-adjustment always matter? J Am CollSurg 2008;207:347-51.
  107. Glance LG, Osler TM, Mukamel DB, Dick AW. Impact of the present-on-admission indicator on hospital quality measurement: experience with the Agency for Healthcare Research and Quality (AHRQ) Inpatient Quality Indicators. Med Care 2008;46:112-9.
  108. Lieberthal RD. Hospital quality: a PRIDIT approach. Health Serv Res 2008;43:988-1005.
  109. Hogan AM, Winter DC. Does practice make perfect? Ann SurgOncol 2008;15:1267-70.
  110. Hermanides HS, Hulscher ME, Schouten JA, Prins JM, Geerlings SE. Development of quality indicators for the antibiotic treatment of complicated urinary tract infections: a first step to measure and improve care. Clin Infect Dis 2008;46:703-11.
  111. Geraedts M, Schwartze D, Molzahn T. Hospital quality reports in Germany: patient and physician opinion of the reported quality indicators. BMC Health Serv Res 2007;7:157.
  112. Coory M, Scott I. Analysing low-risk patient populations allows better discrimination between high-performing and low-performing hospitals: a case study using inhospital mortality from acute myocardial infarction. QualSaf Health Care 2007;16:324-8.
  113. Sullivan E, Baker R, Jones D, et al. Primary healthcare teams' views on using mortality data to review clinical policies. QualSaf Health Care 2007;16:359-62.
  114. Tu YK, Gilthorpe MS. The most dangerous hospital or the most dangerous equation? BMC Health Serv Res 2007;7:185.
  115. Lindenauer PK, Remus D, Roman S, et al. Public reporting and pay for performance in hospital quality improvement. N Engl J Med 2007;356:486-96.
  116. Pogach LM, Tiwari A, Maney M, Rajan M, Miller DR, Aron D. Should mitigating comorbidities be considered in assessing healthcare plan performance in achieving optimal glycemic control? Am J Manag Care 2007;13:133-40.
  117. Chiu WT, Yang CM, Lin HW, Chu TB. Development and implementation of a nationwide health care quality indicator system in Taiwan. Int J Qual Health Care 2007;19:21-8.
  118. Beauvais B, Wells R, Vasey J, DelliFraine JL. Does money really matter? The effects of fiscal margin on quality of care in military treatment facilities. Hosp Top 2007;85:2-15.
  119. Simunovic M, Baxter NN. Lymph node counts in colon cancer surgery: lessons for users of quality indicators. JAMA 2007;298:2194-5.
  120. Wong SL, Ji H, Hollenbeck BK, Morris AM, Baser O, Birkmeyer JD. Hospital lymph node examination rates and survival after resection for colon cancer. JAMA 2007;298:2149-54.
  121. Kahn JM, Brake H, Steinberg KP. Intensivist physician staffing and the process of care in academic medical centres. QualSaf Health Care 2007;16:329-33.
  122. Rosenthal MB, Landrum MB, Meara E, Huskamp HA, Conti RM, Keating NL. Using performance data to identify preferred hospitals. Health Serv Res 2007;42:2109-19; discussion 294-323.
  123. Hall BL, Hirbe M, Waterman B, Boslaugh S, Dunagan WC. Comparison of mortality risk adjustment using a clinical data algorithm (American College of Surgeons National Surgical Quality Improvement Program) and an administrative data algorithm (Solucient) at the case level within a single institution. J Am CollSurg 2007;205:767-77.
  124. Li P, Schneider JE, Ward MM. Effect of critical access hospital conversion on patient safety. Health Serv Res 2007;42:2089-108.
  125. Moret L, Nguyen JM, Pillet N, Falissard B, Lombrail P, Gasquet I. Improvement of psychometric properties of a scale measuring inpatient satisfaction with care: a better response rate and a reduction of the ceiling effect. BMC Health Serv Res 2007;7:197.
  126. Halfon P, Eggli Y, Matter M, Kallay C, van Melle G, Burnand B. Risk-adjusted rates for potentially avoidable reoperations were computed from routine hospital data. J ClinEpidemiol 2007;60:56-67.
  127. Scott IA, Ward M. Public reporting of hospital outcomes based on administrative data: risks and opportunities. Med J Aust 2006;184:571-5.
  128. McLoughlin V, Millar J, Mattke S, et al. Selecting indicators for patient safety at the health system level in OECD countries. Int J Qual Health Care 2006;18 Suppl 1:14-20.
  129. Grunfeld E, Lethbridge L, Dewar R, et al. Towards using administrative databases to measure population-based indicators of quality of end-of-life care: testing the methodology. Palliat Med 2006;20:769-77.
  130. Quintana JM, Gonzalez N, Bilbao A, et al. Predictors of patient satisfaction with hospital health care. BMC Health Serv Res 2006;6:102.
  131. Ilksoy N, Moore RH, Easley K, Jacobson TA. Quality of care in African-American patients admitted for congestive heart failure at a university teaching hospital. Am J Cardiol 2006;97:690-3.
  132. Swarztrauber K, Graf E, Cheng E. The quality of care delivered to Parkinson's disease patients in the U.S. Pacific Northwest Veterans Health System. BMC Neurol 2006;6:26.
  133. Grobman WA, Feinglass J, Murthy S. Are the Agency for Healthcare Research and Quality obstetric trauma indicators valid measures of hospital safety? Am J ObstetGynecol 2006;195:868-74.
  134. Howard DH, Kaplan B. Do report cards influence hospital choice? The case of kidney transplantation. Inquiry 2006;43:150-9.
  135. Werner RM, Bradlow ET. Relationship between Medicare's hospital compare performance measures and mortality rates. JAMA 2006;296:2694-702.
  136. Deswal A, Petersen NJ, Urbauer DL, Wright SM, Beyth R. Racial variations in quality of care and outcomes in an ambulatory heart failure cohort. Am Heart J 2006;152:348-54.
  137. Bradley EH, Herrin J, Elbel B, et al. Hospital quality for acute myocardial infarction: correlation among process measures and relationship with short-term mortality. JAMA 2006;296:72-8.
  138. Kahn CN, 3rd, Ault T, Isenstein H, Potetz L, Van Gelder S. Snapshot of hospital quality reporting and pay-for-performance under Medicare. Health Aff (Millwood) 2006;25:148-62.
  139. Williams SC, Watt A, Schmaltz SP, Koss RG, Loeb JM. Assessing the reliability of standardized performance indicators. Int J Qual Health Care 2006;18:246-55.
  140. Fantini MP, Stivanello E, Frammartino B, et al. Risk adjustment for inter-hospital comparison of primary cesarean section rates: need, validity and parsimony. BMC Health Serv Res 2006;6:100.
  141. Gurung K, Baniya B, Rai N, et al. Patient's perception towards the eye health care system in a tertiary eye care centre in Nepal. Nepal Med Coll J 2006;8:115-7.
  142. Greenberg A, Angus H, Sullivan T, Brown AD. Development of a set of strategy-based system-level cancer care performance indicators in Ontario, Canada. Int J Qual Health Care 2005;17:107-14.
  143. Lim MJ, Roychoudhury C, Baker PL, Bossone E, Mehta RH. Differences in quality of care among patients hospitalized with atrial fibrillation as primary or secondary cause for admission. Int J Qual Health Care 2005;17:255-8.
  144. Luthi JC, McClellan WM, Flanders WD, Pitts SR, Burnand B. Variations in the quality of care of patients with acute myocardial infarction among Swiss university hospitals. Int J Qual Health Care 2005;17:229-34.
  145. Aust JB, Henderson W, Khuri S, Page CP. The impact of operative complexity on patient risk factors. Ann Surg 2005;241:1024-7.
  146. Williams SC, Schmaltz SP, Morton DJ, Koss RG, Loeb JM. Quality of care in U.S. hospitals as reflected by standardized measures, 2002-2004. N Engl J Med 2005;353:255-64.
  147. Jha AK, Li Z, Orav EJ, Epstein AM. Care in U.S. hospitals--the Hospital Quality Alliance program. N Engl J Med 2005;353:265-74.
  148. Bowman SM, Zimmerman FJ, Christakis DA, Sharar SR, Martin DP. Hospital characteristics associated with the management of pediatric splenic injuries. JAMA 2005;294:2611-7.
  149. Rosen AK, Rivard P, Zhao S, et al. Evaluating the patient safety indicators: how well do they perform on Veterans Health Administration data? Med Care 2005;43:873-84.
  150. Pogach L, Xie M, Shentue Y, et al. Diabetes healthcare quality report cards: how accurate are the grades? Am J Manag Care 2005;11:797-804.
  151. Laine J, Finne-Soveri UH, Bjorkgren M, Linna M, Noro A, Hakkinen U. The association between quality of care and technical efficiency in long-term care. Int J Qual Health Care 2005;17:259-67.
  152. Scott IA, Darwin IC, Harvey KH, et al. Multisite, quality-improvement collaboration to optimise cardiac care in Queensland public hospitals. Med J Aust 2004;180:392-7.
  153. Rowan K, Harrison D, Brady A, Black N. Hospitals' star ratings and clinical outcomes: ecological study. Br Med J (Clin Res Ed) 2004;328:924-5.
  154. Seagroatt V, Goldacre MJ. Hospital mortality league tables: influence of place of death. Br Med J (Clin Res Ed) 2004;328:1235-6.
  155. Handslip P, Swindells M, Allan C, Clifton M, Thomas H. Information-clinical analysis. The data today. Real-time monitoring can alert trusts to clinical performance problems--before the star-ratings do it for them. Health Serv J 2004;114:suppl 6-8.
  156. Watterson L. Using indicator development to revise infection control activities in an acute NHS trust. J NursManag 2004;12:403-10.
  157. Paton C, Lelliott P. The use of prescribing indicators to measure the quality of care in psychiatric inpatients. QualSaf Health Care 2004;13:40-5.
  158. Steel N, Melzer D, Shekelle PG, Wenger NS, Forsyth D, McWilliams BC. Developing quality indicators for older adults: transfer from the USA to the UK is feasible. QualSaf Health Care 2004;13:260-4.
  159. Austin PC, Alter DA, Anderson GM, Tu JV. Impact of the choice of benchmark on the conclusions of hospital report cards. Am Heart J 2004;148:1041-6.
  160. Qvist P, Rasmussen L, Bonnevie B, Gjorup T. Repeated measurements of generic indicators: a Danish national program to benchmark and improve quality of care. Int J Qual Health Care 2004;16:141-8.
  161. Henderson A, Caplan G, Daniel A. Patient satisfaction: the Australian patient perspective. Aust Health Rev 2004;27:73-83.
  162. Miller MR, Zhan C. Pediatric patient safety in hospitals: a national picture in 2000. Paediatr 2004;113:1741-6.
  163. Sullivan J, Brust P, Wren PJ, Rich V. A staffing-effectiveness methodology for analyzing human resource and clinical/service screening indicator data. JtComm J QualSaf 2004;30:322-30.
  164. Barker RM, Pearce MS, Irving M. Star wars, NHS style. Br Med J (Clin Res Ed) 2004;329:107-9.
  165. Dimick JB, Welch HG, Birkmeyer JD. Surgical mortality as an indicator of hospital quality: the problem with small sample size. JAMA 2004;292:847-51.
  166. Wakefield DS, Ward M, Miller T, et al. Intensive care unit utilization and interhospital transfers as potential indicators of rural hospital quality. J Rural Health 2004;20:394-400.
  167. Mortensen EM, Cornell J, Whittle J. Racial variations in processes of care for patients with community-acquired pneumonia. BMC Health Serv Res 2004;4:20.
  168. Weingarten JP, Jr., Fan W, Peacher-Ryan H, et al. Hospital quality improvement activities and the effects of interventions on pneumonia: a multistate study of Medicare beneficiaries. Am J Med Qual 2004;19:157-65.
  169. Pyykonen A, Gissler M, Jakobsson M, Petaja J, Tapper AM. Determining obstetric patient safety indicators: the differences in neonatal outcome measures between different-sized delivery units. BJOG 2014;121:430-7.
  170. Leleu H, Capuano F, Nitenberg G, Travental L, Minvielle E. Hospital performance based on treatment delays: comparison of ranking methods. BMJ QualSaf 2014;23:73-7.
  171. Bradley EH, Curry L, Horwitz LI, et al. Hospital strategies associated with 30-day readmission rates for patients with heart failure. CircCardiovascQual Outcomes 2013;6:444-50.
  172. Rice-Townsend S, Gawande A, Lipsitz S, Rangel SJ. Relationship between unplanned readmission and total treatment-related hospital days following management of complicated appendicitis at 31 children's hospitals. J PediatrSurg 2013;48:1389-94.
  173. Garvin JH, Elkin PL, Shen S, et al. Automated quality measurement in Department of the Veterans Affairs discharge instructions for patients with congestive heart failure. J HealthcQual 2013;35:16-24.
  174. Yousefi V, Chong CA. Does implementation of a hospitalist program in a Canadian community hospital improve measures of quality of care and utilization? an observational comparative analysis of hospitalists vs. traditional care providers. BMC Health Serv Res 2013;13:204.
  175. Mohammed MA, Lilford R, Rudge G, Holder R, Stevens A. The findings of the Mid-Staffordshire Inquiry do not uphold the use of hospital standardized mortality ratios as a screening test for 'bad' hospitals. QJM 2013;106:849-54.
  176. Goodrich K, Krumholz HM, Conway PH, Lindenauer P, Auerbach AD. Hospitalist utilization and hospital performance on 6 publicly reported patient outcomes. J Hosp Med 2012;7:482-8.
  177. Gorzkiewicz V, Lacroix J, Kingsbury K. Cardiac care quality indicators: a new hospital-level quality improvement initiative for cardiac care in Canada. Healthc Q 2012;15:22-5.
  178. Hauck K, Zhao X, Jackson T. Adverse event rates as measures of hospital performance. Health Policy 2012;104:146-54.
  179. Verenhitach BD, Elias S, Patrocinio AC, Nazario AC, Waizberg A. Evaluation of the clinical efficacy of minimally invasive procedures for breast cancer screening at a teaching hospital. J ClinPathol 2011;64:858-61.
  180. Beck CA, Richard H, Tu JV, Pilote L. Administrative Data Feedback for Effective Cardiac Treatment: AFFECT, a cluster randomized trial. JAMA 2005;294:309-17.
  181. Charbonneau A, Rosen AK, Owen RR, et al. Monitoring depression care: in search of an accurate quality indicator. Med Care 2004;42:522-31.
  182. Hamida AB, Fakhfakh R, Miladi W, Zouari B, Nacef T. La transition sanitaire en Tunisie au cours des 50 dernières années. East Mediterr Health J 2005;11:181.
  183. Coatannoan É, Talec R. Élaboration de tableaux de bord et choix d'indicateurs pertinents pour le plateau technique hospitalier. ITBM-RBM 2000;21:113-20.
  184. Objectifs et indicateurs SMART. (Accessed 20/05/2013, at http://fr.wikipedia.org/wiki/Objectifs_et_indicateurs_SMART.)
  185. Gosselin M. Analyse des avantages et des coûts de la santé et de la sécurité au travail en entreprise : Développement de l’outil d’analyse. Institut de recherche en santé et sécurité au travail (IRSST), Québec ; 2004.
  186. Sicotte C, Champagne F, Contandriopoulos A-P. La performance organisationnelle des organismes publics de santé. Ruptures (UnivMontr Groupe RechInterdiscip Sante) 1999;6:34.
  187. Garnerin P, Bovier P, Chamot E, et al. Qualité des soins. Schweiz Arzteztg 2001;82:2020-4.
  188. Veillard J, Champagne F, Klazinga N, Kazandjian V, Arah O, Guisset A-L. A performance assessment framework for hospitals: the WHO regional office for Europe PATH project. Int J Qual Health Care 2005;17:487-96.
  189. Boeckxstaens P, Smedt DD, Maeseneer JD, Annemans L, Willems S. The equity dimension in evaluations of the quality and outcomes framework: a systematic review. BMC Health Serv Res 2011;11:209.
  190. Performance Assessment Tool for Quality Improvement in Hospitals. (Accessed 15/05/2013, at http://www.cmj.org.pl/who/path_brochure.pdf.)
  191. Le paiement à la performance: Leçons de l’expérience des pays de l’OCDE. (Accessed 15/05/2013, at http://www.sante.gouv.fr/IMG/pdf/05_Borowitz.pdf.)
  192. Elovainio R. Performance incentives for health in high-income countries–key issues and lessons learned. World Health Stat Rep; 2010.
  193. Rosenthal MB, Fernandopulle R, Song HR, Landon B. Paying for quality: providers' incentives for quality improvement. Health Aff (Millwood) 2004;23:127-41.
  194. Le paiement à la performance des médecins généralistes anglais a-t-il atteint ses objectifs ?. (Accessed 15/05/2013, at file:///C:/Users/SAMSUNG/Downloads/ad654952%20(2).pdf.)
  195. Paiement sur objectifs de santé publique: le paiement à la performance. (Accessed 17/05/2013, at http://www.syfal.fr/documents/p4p_nuls_120131.pdf?PHPSESSID=n6f6s3co5v3hcnm9n5nqe7bfj7.)
  196. Barouch G. La mise en œuvre de démarches qualité dans les services publics: une difficile transition. Polit Managpublic 2010;27:109-28.
  197. Shaw C, Groene O, Mora N, Sunol R. Accreditation and ISO certification: do they explain differences in quality management in European hospitals? Int J Qual Health Care 2010;22:445-51.
  198. Chouaid C, Hejblum G, Guidet B, Valleron A. De l’évaluation de la qualité des soins à la performance des soins. Rev Mal Respir 2006;23:87-98.
  199. World Health Organization. Normes de qualité des soins de l'infection à VIH: outils de l'évaluation et de l'amélioration de la qualité et d'accréditation des services de santé .Rapport d'une consultation OMS sur l'accréditation des services de santé chargés des soins de l'infection à VIH, 10-11 mai 2004, Genève, Suisse ; 2005.
  200. Marty C, Merlin H. Mesurer la performance des hôpitaux publics en France. Fondements Méthodologiques, proposition d’un modèle d’évaluation, Enjeux 2007.
  201. Prud’homme L, Ramel S, Angelucci V, et al. Plan stratégique 2010-2015 ;Université de Québec à Trois Rivières (UQTR); 2010.
  202. Plan stratégique du CHR Citadelle pour les années 2011-2013. (Accessed 27/05/2013, at http://www.chrcitadelle.be/servlet/Repository/Planstrat%C3%A9gique2011-2013.pdf?ID=1296.)
  203. Site officiel de l'université de Liège. (Accessed 27/05/2013, at http://www.chu.ulg.ac.be/jcms/c_83529/quelques-mots-d-histoire.)
  204. Agence nationale d'appui à la performance des établissements de santé et médico-sociaux. (Accessed 20/05/2013, at http://www.anap.fr/.)
  205. Pédagogie médicale "Qu'est ce qu'un bon médecin?". (Accessed 23/05/2013, at http://www.edu.upmc.fr/medecine/pedagogie/memoire/Memoires%2013/Memoire%20Dr_Leroy.pdf.)
  206. Grignon M, Paris V, Polton D, Couffinhal A, Pierrard B. L'influence des modes de rémunération des médecins sur l'efficience du système de soins. Commission sur l'avenir des soins de santé au Canada; 2002.
  207. Bocognano A, Couffinhal A, Grignon M, Mahieu R, Polton D. Concurrence entre assureurs, entre prestataires et monopole naturel. Econ Stat 1999;328:21-36.
  208. Royal College of physicians and Surgeons of Canada. CanMEDS. (Accessed 15/10/2014, at http://www.royalcollege.ca/portal/page/portal/rc/canmeds/framework#medical_expert.)
  209. Organisation Mondiale de la Santé. Médecins pour la santé. Genève : OMS; 1996.
  210. Brunelle Y, Saucier A. Les indicateurs et le système de soins: Ministère de la santé et des services sociaux. Paris : Direction générale de la planification et de l'évaluation; 1999.
  211. Approche conceptuelle de la qualité des soins. (Accessed 26/05/2013, at file:///C:/Users/SAMSUNG/Downloads/ad352328%20(1).pdf.)
  212. Brault I, Roy D, Denis J-L. Introduction à la gouvernance clinique: historique, composantes et conceptualisation renouvelée pour l’amélioration de la qualité et de la performance des organisations de santé. Revue Pratiques et Organisations des Soins ; 2008.
  213. L’évaluation des pratiques professionnelles dans le cadre de la nouvelle procédure d’accréditation – certification HAS. (Accessed 25/05/2013, at http://www.has-sante.fr/portail/upload/docs/application/pdf/marie_christine_moll_et_alain_le_henaff_diapo_pays_de_la_loire.pdf.)
  214. Monod P, Médecins UR. Evaluation des pratiques professionnelles. Rev Prat 2004;18:1067-70.
  215. Germain C. Une typologie des tableaux de bord implantés dans les petites et moyennes entreprises. Finance Contrôle Stratégie 2005;8:125-143.
  216. Nobre T. Quels Tableaux De Bord De Pilotage Pour L'Hopital? 21ème congrès de l'AFC. France ; 2000.
  217. Moll MC, Decavel F, Merlet C. Tableau de bord d'évaluation du système qualité des pôles en établissement de santé: un outil pédagogique. Rech Soins Infirm 2009:19-27.
  218. Recommandations, Société de réanimation de langue française. Tableau de bord en réanimation. Réanimation 2003;12:S75-S84.
  219. Lombrail P, Bourgueil Y, Develay A, Mino J, Naiditch M. Repères pour l'évaluation des réseaux de soin. Sante Publique 2000;12:161-76.
  220. Pitarelli E, Monnier E. Benchmarking: the missing link between evaluation and management. Université de Genève et centre Européen d’Expertise en évaluation : 4th ESS Conference October; 2000.
  221. Projet COMPACH 2ème phase (2006-2009). Rapport final. (Accessed 20/05/2013, at http://www.drees.sante.gouv.fr/IMG/pdf/seriesource_method18.pdf.)
  222. Healthy system performance: Indicator library (Accessed 28/05/2013, at http://indicatorlibrary.cihi.ca/display/HSPIL/Indicator+Library?desktop=true.)
  223. Aegerter P, Boumendil A, Retbi A, Minvielle É, Dervaux B, Guidet B. Peut-on mesurer la performance des services grâce à l’IGS II ? Réanimation 2003;12.
  224. Scores de Gravité en Réanimation. (Accessed 18/05/2013, at http://www.sfar.org/acta/dossier/archives/ca99/html/ca99_41/99_41.htm.)
  225. Constantin J, Leone M, Jaber S, et al. Quelle activité et quels personnels soignants dans 66 unités de réanimation du sud de la France? Ann Fr AnesthReanim; 2010: Elsevier. p. 512-7.
  226. Horngren C. Controle de gestion et gestion budgétaire. Pearson Education,France; 2012.
  227. Elaboration d'un tableau de bord prospectif dans le cadre du pilotage de la performance à l'Hôpital de Zone de Comé 2008. (Accessed 20/05/2013, at http://www.memoireonline.com/02/09/2012/m_Elaboration-dun-tableau-de-bord-prospectif-dans-le-cadre-du-pilotage-de-la-performance--lHopital0.html.)
  228. Quels indicateurs de qualité pour quelles utilisations ? (Accessed 21/05/2013, at http://www.has-sante.fr/portail/upload/docs/application/pdf/2009-02/synthesetr18_vvd24-02.pdf.)
  229. Lancement du site Scope Santé. (Accessed 24/05/2013, at http://www.has-sante.fr/portail/jcms/c_1702304/fr/lancement-du-site-scope-sante.)
  230. Contrats de performance pour soigner l’image de nos hôpitaux. (Accessed 16/10/2014, at http://algeriepatriotique.com/article/contrats-de-performance-pour-soigner-l-image-de-nos-hopitaux.)
  231. Guettaf L, Foudi B. La coordination des acteurs (public-privé) dans les systèmes de santé algérien et marocain. Périodique des Sciences Humaines, Université de Biskra Algérie; 2013.
Espace membre
E-mail :
Mot passe :
Mémoriser Mot de passe oublié S'inscrire
Archives
2018
Janvier
Février
Mars
Avril
Mai
Juin
Juillet
Août
Septembre
Octobre
Novembre
Décembre
Mots-clés
Enfant traitement pronostic Chirurgie diagnostic Tunisie Maladie de crohn dépistage Cancer Cancer du sein Coelioscopie Immunohistochimie tuberculose prévention Ostéoporose
Newsletter
S'inscrire pour recevoir les newsletters
E-mail :
Partagez
Rejoignez-nous !