Jakiś czas temu pisałem w tym wątku o moich problemach z kartą AverTV, która nie potrafi odbierać obrazu z Atari. Zrobiłem kilka pomiarów i parę rzeczy odkryłem:
1. Zauważyłem że Atari generuje zbyt wysokie napięcie sygnału composite. U mnie przekracza ono 1.5V (po obciążeniu) a w standardzie PAL powinno być 0-1V. Jest to łatwe do skorygowania odpowiednimi rezystorami.
2. Jak wiadomo z Atariki, GTIA dzieli sygnał zegarowy przez 228 i na tej podstawie generuje sygnał synchronizacji linii. Daje to 3546862Hz / 228 / 25 = 622 linii obrazu na ramkę. Wartość ta odbiega nieco od liczby 625 linii według standardu PAL.
A gdyby tak GTIA dzieliło przez 227, wówczas otrzymalibyśmy 3546862Hz / 227 / 25 = 625 linii i byłaby idealna zgodność. Zacząłem się zastawiać, czy tutaj nie leży przyczyna problemów. Z czystej ciekawości napisałem programik w asemblerze dla mikrokontrolera AVR Tiny13, który dzieli sygnał zegarowy przez 227 i generuje prawidłowe sygnały synchronizacji PAL z przeplotem... I o dziwo! Obraz się pojawił, nic już nie rwało synchronizacji i wszystko było pięknie stabilne... Niestety, sąsiadujące linie były poprzesuwane w poziomie o 1 cykl koloru, gdyż każda linia zajmowała teraz o 1 cykl mniej. Obraz więc nie nadawał się do pracy, choć przyczyna problemów została usunięta.
Mam teraz takie pytanie: czy to możliwe, aby nowoczesna karty telewizyjna były aż tak strasznie czuła na długości linii ekranowych? Na mojej starej karcie tego problemu nie ma. A może ktoś wie, z czego wynika wewnętrzne dzielenie częstotliwości zegarowej w GTIA przez 228 zamiast przez 227?