Die Anfänge der Thermografie gehen auf den deutsch-britischen Astronomen Wilhelm Herschel zurück. Dieser hatte bei der Brechung des sichtbaren Lichts mithilfe eines Prismas entdeckt, dass neben der roten Strahlung des Regenbogens die Temperatur anstieg. Herschel benannte daraufhin diese unsichtbare Strahlung „Wärmestrahlung“, was heutzutage auch unter dem Namen „Infrarotstrahlung“ (kurz: IR-Strahlung) bekannt ist. Dieses Phänomen wie auch das Sehen basiert auf der Fähigkeit von Körpern, Strahlung zu emittieren, absorbieren und zu reflektieren. Sichtbares Licht besitzt eine Wellenlänge von 0,38 – 0,78 μm, wogegen die Wärmestrahlung ab 0,78 μm beginnt und bis zur längerwelligen Terahertzstrahlung bei etwa 1 mm reicht. Emittiert wird die IR-Strahlung auf Grundlage der inneren Teilchen- bzw. Molekularbewegung, welche bereits ab einer Temperatur von über Null Kelvin (-273,15°C) vorhanden ist. Somit sind alle Körper auf der Erde „Strahler“ von IR-Strahlung, im Gegensatz dazu strahlen die wenigsten physikalischen Körper sichtbares Licht aus. Allerdings ist die Intensität der IR-Strahlung nicht allein von der Temperatur des Körpers abhängig, sondern auch von der Oberflächenbeschaffenheit. Diese bestimmt nämlich den sogenannten Emissionsgrad. Beispielsweise besitzen die meisten mineralischen Baustoffe einen Emissionsgrad von 0,8 bis 0,95, was bedeutet, dass 80 – 95% ihrer Eigenstrahlung emittiert wird. Bei metallischen, insbesondere polierten bzw. glänzenden Oberflächen, wird die IR-Strahlung besonders stark reflektiert, sodass sich sehr geringe Absorptions- bzw. Emissionsgrade in der Größenordnung von 0,02 (poliertes Silber) bis etwa 0,30 (verzinktes Eisen) ergeben.
Die Thermografie für die Detektion von Wärmebrücken wird in der DIN EN 13187 geregelt. Der letzte aktuelle Stand ist jedoch vom Mai 1999.

