Impfen ist bislang freiwillig – soll das so bleiben? Foto: dpa/Expa

In Deutschland gibt es bislang keine Impfpflicht. Zumindest für bestimmte Berufsgruppen wird darüber diskutiert. Richtig oder falsch?

Berlin - Soll es in Deutschland eine Impfpflicht geben? Die Meinungen dazu sind geteilt, während die einen sie als nötiges Druckmittel empfinden, um Ungeimpfte zur Immunisierung gegen Covid 19 zu animieren, halten andere sie für rechtlich und moralisch bedenklich. Die Ampelkoalition berät derzeit zumindest über eine Impfpflicht in Teilbereichen – wobei eine Einigung schwierig ist.