Beschlossen nach Konferenz: Impfpflicht kommt in Deutschland

Symbolbild

Jetzt also doch, die Impfpflicht kommt in Deutschland – Erstmalig trifft es nur eine Branche – Weitere Impfpflichten könnten aber kommen.

Erstmals seit Beginn der Corona-Pandemie wird es in Deutschland eine Impfpflicht geben – allerdings begrenzt auf Gesundheitspersonal.

Dies sowie weitere Maßnahmen im Kampf gegen die Pandemie haben Bundestag und Bundesrat beschlossen.

Der von der neuen Koalition aus SPD, Grünen und FDP vorgelegten Änderung des Infektionsschutzgesetzes stimmten auch die CDU/CSU und die unionsgeführten Länder zu.

Beschäftigte in Einrichtungen mit schutzbedürftigen Menschen wie Pflegeheimen und Kliniken müssen nun bis Mitte März nachweisen, dass sie geimpft oder genesen sind. Neben Ärzten können künftig auch Apotheker, Zahn- und Tierärzte impfen. /dpa

Lesen Sie auch
Nicht anfassen: Gefährliche Tierpest breitet sich in Deutschland aus