Ich glaube, dass Google mehrere Ansätze kombiniert.
1. Ein Algorithmus um identische ("pixelgleiche") Bilder (oder Teilbilder) zu finden.
2. Verschiedene Algorithmen um basierend auf Farbe, Helligkeitsverteilung usw. "ähnliche" Bilder zu erkennen. Da merkt man auch immer sofort, dass die Ergebnisse deutlich schlechter sind als bei 1.
Und 3. dürfte Google auch die Ergebnisse aus der "Vorwärts"-Bildersuche mitberücksichtigen. Das heißt, Google wird sich (bei bekannten Bildern) wohl angucken, bei welchen Suchworten das eingegebene Bild in der normalen Google-Bildersuche am häufigsten auftaucht und dann andere Bilder aus seiner Datenbank heraussuchen, die sich viele Suchworte mit dem Quellbild teilen.
Wenn es sehr eindeutig ist, gibt Google ja sogar einen vorgeschlagenen Suchbegriff aus, dann steht da z.B. "Vermutung für dieses Bild: Afrikaner, der Kopfstand macht".
Ich denke, dass Google vor allem durch den letzten Punkt deutlich bessere Ergebnisse liefern kann als Mitbewerber wie z.B.
Tineye, obwohl es die schon länger gibt.