Allemagne [n.f]

Définition : L’Allemagne est un pays d’Europe centrale, connu pour son histoire, sa culture, sa technologie et ses villes célèbres comme Berlin (la capitale), Munich ou Hambourg. Le mot allemand désigne une personne originaire d’Allemagne ou la langue parlée dans ce pays, appelée aussi l’allemand.  En savoir +

Allemagne [n.f] ; Allemand [n/adj.m] ; Allemande [n.adj.f]

Allemagne - [signe 1]

Explication : Ce signe ferait référence au casque à pointe. 

Mots associés