Seite:Rundfunk & Museum 097 (2019-09).pdf/28

Aus FürthWiki

Diese Seite wurde noch nicht korrekturgelesen.

TV Geschichte Einleitung: Stand der Digitaltechnik Die Digitalisierung ist heute Thema in allen Medien und wird auch in der breiten Öffentlichkeit diskutiert. Stillschweigend wird davon ausgegangen, dass dies eine Technik sei, die erst in den beiden letzten Jahrzehnten entwickelt worden ist. Dem ist aber nicht so. Harry Nyquist, ein schwedisch-amerikanischer Ingenieur der Elektrotechnik, hatte bereits 1927 festgestellt, dass ein analoges Signal (z. B. Sprache, Musik oder Bilder) mit mehr als der doppelten Signalfrequenz abgetastet werden muss, um aus dem digitalen Abbild wieder das analoge Ausgangssignal rekonstruieren zu können. D.h., wenn wir vom menschlichen Hörbereich, ausgehen, der bis ca. 20 000 Hz geht, muss man für die Digitalisierung von akustischen Signalen mindestens 40 000 Abtastwerte pro Sekunde entnehmen (bei der Audio-CD verwendet man 44 100 Abtastwerte pro Sekunde). Nyquist hatte sein Forschungsergebnis 1928 publiziert. Sein Abtasttheorem und seine Erforschung der erforderlichen Bandbreite bildeten eine wichtige Grundlage für Claude Shannons theoretische Arbeiten, die letztlich zur Begründung der Informationstheorie führten. Im Folgenden soll nun gezeigt werden wie die digitale Bildsignalverarbeitung in die Grundig Fernsehgeräte Einzug hielt, denn Mitte der 1980er Jahre machten die Fortschritte in der IC-Technologie es möglich, Analog Digital

Converter (ADC) zu fertigen, die schnell genug waren, um Bildsignale zu digitalisieren und auch preislich für den Einsatz in der Consumer-Elektronik geeignet waren. Der Halbleiter Hersteller ITT Intermetall (später Micronas) hatte bereits Anfang der 1980er Jahre unter der Marketingbezeichnung Digit2000 einen Satz von Integrierten Schaltkreisen (IC) entwickelt, der die komplette Videound Audiosignalverarbeitung im Fernsehgerät digital durchführte. Einige Unterhaltungselektronikhersteller setzten dieses Konzept in ihren Geräten ein. Da es aber von der Bild- und Tonqualität einem analogen IC-Konzept unterlegen war und somit für den Kunden keinen verbesserten Nutzen hatte, ging Grundig einen anderen Weg, wie im Folgenden erläutert wird. Stand der Bildqualität von Fernsehgeräten in den 1980er Jahren Die in den 1980er Jahren nach dem PAL-System arbeitenden Fernsehgeräte lieferten eine durchaus gute Bildqualität. Trotzdem waren im damaligen analogen Übertragungssystem (CCIR-Norm B und G; Horizontalablenkfrequenz 15 625 Hz; Vertikalablenkfrequenz 50 Hz; 625 Zeilen im Zeilensprungverfahren) noch bestimmte Störeffekte vorhanden. Seit der Einführung dieses Übertragungssystems waren Bildröhren mit höherer Bildhelligkeit sowie größeren Bildformaten entwickelt worden, die die folgenden vier Effekte nun stärker

sichtbar werden ließen: Großflächenflimmern Große, helle Bilder oder Bildteile zeigten ein deutliches Flimmern. Die Ursache dafür lag in der zu niedrigen Bildwechselfrequenz. Physiologische Untersuchungen erbrachten, dass Bildwechselfrequenzen von mindestens 70 Hz für eine flimmerfreie Bildwiedergabe erforderlich waren. Dies galt bereits für Bildschirmarbeitsplätze in der EDV-Technik als Richtlinie. Zwischenzeilenflimmern Bedingt durch das Zeilensprungverfahren sprangen horizontale oder nahezu horizontale Linien bzw. Kanten des Bildinhaltes (z. B. die Grundlinie bei Tennisübertragungen) im Rhythmus der Vollbildfrequenz – also mit 25 Hz. Der Effekt wurde auch mit Kantenflackern oder Zwischenzeilenflimmern bezeichnet. Cross-Color Durch Übersprechen des Luminanzsignals in den Color-Verarbeitungsteil des Fernsehgerätes wurden feine Helligkeitswechsel des Luminanzsignals eingefärbt, z. B. deutlich sichtbar wenn der Nachrichtensprecher ein graugestreiftes Jackett trug. Cross-Luminanz Durch Übersprechen des Chrominanzsignals in den Luminanzverarbeitungsteil des Fernsehgerätes wurden bei Farbsprüngen Störeffekte sichtbar, z. B. unbunte Störung beim Farbbalkentest-

Rundfunk & Museum 97 – September 2019

29