PDA

Zobacz pełną wersję : Filtr AA



Andee
31-10-2005, 18:21
[..]
muflon, chyba z rok temu ktoś pisał, że wymiana migawki kosztowała go właśnie 400PLN.. ale to było chyba 300D więc masz rację, będzie drożej. No ale co by nie było to filrt AA powinien być sporo tańszy, nie wspominając o czyszczeniu.

[..]



Kubaman boj sie Boga ;):twisted:

Jaki filtr AA? Filtr AA to rozwiazanie softwareowe siedzace w fimware aparatu :)

To co oslania matryce to filtr IR... :-)

Tomasz Golinski
01-11-2005, 02:47
I co, Kuba? Boisz sie?

Kubaman
03-11-2005, 18:48
I co, Kuba? Boisz sie?
jasne, cały drżę ;)


Kubaman boj sie Boga ;):twisted:

Jaki filtr AA? Filtr AA to rozwiazanie softwareowe siedzace w fimware aparatu :)

To co oslania matryce to filtr IR... :-)
masz rację ale nie do końca. Filtr AA to jak najbardziej fizyczny element w aparatach (np standart w Kodakach) (http://www.kodak.com/global/en/service/professional/tib/tib7068.jhtml?id=0.1.14.34.5.138&lc=en).
Jest stosowany albo zamiast filtra IR albo w połączeniu z nim jak np. w D2H (http://www.naturfotograf.com/D2H_rev05IR.html)
Efekt działania filtra AA rzeczywiście można zasumulować software'owo (http://www.dpreview.com/learn/?/Photography_Techniques/Shooting_without_AA_01.htm).

Jurek Plieth
04-11-2005, 10:25
masz rację ale nie do końca. Filtr AA to jak najbardziej fizyczny element w aparatach...
Kuba, nie wierz w takie bzdury. Zamiast tego poczytaj sobie co to jest antyaliasing. Najprościej w Wikipedii (http://pl.wikipedia.org/wiki/Antyaliasing), ale nie tylko tam oczywiscie. W sieci są setki informacji na ten temat, przy okazji obróbki analogowo cyfrowej.

Kubaman
05-11-2005, 09:58
Jurku, cenię bardzo twoje zdanie, ale chyba jednak nie masz racji :roll: .

Po pierwsze, filtry AA do Kodaka możesz kupić, więc są to jak najbardziej elementy optyczne.
Po drugie, wszyscy gdzieś IMHO ulegamy rozmaitym przekłamaniom i to może być przyczyną nieporozumień. Sam nie do końca wiedziałem jak to się definiuje, więc przeczytałem.

Sprawa wygląda tak, że aliasingiem w fotografii cyfrowej nazywane jest zjawisko aliasingu chromatycznego, powstającego w czasie interpolacji kolorów w procesorze obrazu. Nie ma to niec wspólnego z "ząbkowaniem krawędzi" a z faktem zbyt małej zdolności matrycy do rozróżniania wartości w obszarach o szybkich przejściach w szerokim spektrum światła na niewielkich obszarach (porównywalnych z rozmiarami piksela). Innymi słowy, jest to dobrze znany efekt kolorowej mory - choć znów tutaj powszechnie stosowane nazewnictwo nie jest precyzyjne, bo mora to jeszcze coś innego.

Filtr AA obcina specyficzne zakresy widma, aby przejścia miały mniejszą rozpiętość i procesor obrazu mógł je rozróżnic i właściwie interpretować. Z drugiej strony powoduje to utratę informacji "w przejściach" i dlatego pogarsza się ostrość takiego obrazu (spadek kontrastu).

Podaję linka (http://www.linear-systems.com/support/anti_aliasing.htm) jednego z wielu, które znalazłem, który w sposób zwarty to opisuje.

Jurek Plieth
07-11-2005, 22:01
Po pierwsze, filtry AA do Kodaka możesz kupić, więc są to jak najbardziej elementy optyczne...
Kuba, delikatnie mówiąc jest to nadużycie, aby napluć na filtr UV, rozmazać ślinę i nazwać to filtrem antyalisingowym :rolleyes:
One way to reduce aliasing is to use a blurring (or “anti-aliasing”) filter, which deliberately discards fine details. Defocussing the camera lens does almost the same thing.
Takie "filtry" antyaliasingowe będące w gruncie rzeczy filtrami zmiękczającymi stosują producenci tych aparatów cyfrowych, którzy z jakichś względów nie potrafią, lub nie mogą tego zrobić w sposób programowy!

Kubaman
07-11-2005, 22:56
Kuba, delikatnie mówiąc jest to nadużycie, aby napluć na filtr UV, rozmazać ślinę i nazwać to filtrem antyalisingowym :rolleyes:
dlatego nie kupuję Kodaków ;)


One way to reduce aliasing is to use a blurring (or “anti-aliasing”) filter, which deliberately discards fine details. Defocussing the camera lens does almost the same thing. brzmi to trochę jak frazes ze stajni Nikona. Przeciez w podanym przeze mnie wytłumaczeniu i linku wyraźnie jest napisane na czym to polega i dlaczego zmniejsza ostrość zdjęć :roll:

producenci tych aparatów cyfrowych, którzy z jakichś względów nie potrafią, lub nie mogą tego zrobić w sposób programowy! jak Nikon w D1H?

Nieważne 8-) , zrobiliśmy mocny OT. Jeśli ktoś będzie chciał kontynuować tę dyskusję, może wydzielić to do osobnego wątku ?

Andee
08-11-2005, 09:46
Dzieki za wydzielenie nowego tematu, choc nie sadzilem ze jest tego wart...

Rozmawiamy chyba o Canonach a nie Kodakach czy Nikonach. Rozmawialimy tez chyba o filtrze chroniacym matryce a nie jakichs innych faktycznych czy wyimaginowanych filtrach, a ten filtr w Canonach to filtr IR. Prawdziwy filtr AA to rozwiazanie czysto softwareowe, to ze jakis producent wymysla sobie optyczne filtry zmiekczajace i nazywa je AA to sprawa tego producenta, dla mnie to oszustwo lub nieudolnosc. Jezeli softwareowy filtr danego producenta nie radzi sobie z usuwaniem niepotrzebnych artefaktow to dodaje filtr optyczny wycinajacy pasmo, nie jest to filtr AA tylko cos co usprawnia jego funkcjonowanie. Tak jak to zreszta wczesniej opisal Jurek...

A ten filtr o ktorym mowa w pierwszym poscie to FILTR IR... I wlasnie jego glownie tyczyla sie moja wypowiedz.

eMILz
08-11-2005, 10:23
hmmm chyba nie do konca software ...
na powierzchni matrycy sa mikrosoczewki i to wedlug mnie one sa filtrem AA.
jak dziala filtr software-owy ano interpoluje wartosc ...
a soczewka w dokladnie taki sam sposob moze interpolowac.

co o tym myslicie ?

Andee
08-11-2005, 11:34
Mikrosoczewki na matrycy sa wlasnie jednym z powodow powstawania artefaktow typu kolorowa mora czy blooming (powstawanie aberracji chromatycznej we wspolpracy z obiektywami ktore jej nie wykazuja, lub wykazuja szczatkowa)...

Sluza one podnoszeniu wydajnosci absorbcji swiatla, niemaja nic wspolnego z AA.

SAM
08-11-2005, 13:39
Andee, jakbyś mógł mi wytłumaczyć co mikrosoczewki na matrycy mają do bloomingu, to byłbym wdzięczny.

eMILz
08-11-2005, 13:57
wiec taka soczewka jesli ma dawac elementom swiatloczulym wiecej swiatla
to musi byc
- wieksza od takiego elementu
- odbierac swiatlo z wiekszego kata ...

jesli spelnia ktorychs z tych warunkow to dziala jako filtr AA
bo zadaniem filtra AA jes usrednianie wartosci z wiekszej przestrzeni.
gdyby ich nie bylo sensor bardzo punktowo rejestrowalby swiatlo i wtedy dopiero bylyby poszarpane linie ...

Jurek Plieth
08-11-2005, 14:11
jak Nikon w D1H?
Nie wiem jak jest w Nikonie, nie wiem też jak to jest realizowane w Canonie. Miałem na myśli tylko tyle, że aliasing (antyaliasing) to terminy z dziedziny przetwarzania sygnałów, a nie optyki! W tańszych i prostszych cyfrakach, gdzie siłą rzeczy używa się mało skomplikowanej obróbki sygnału wykorzystując nieprzesadnie mocne procesory, użycie zmiękczającego filtru optycznego jest być może koniecznością. Natomiast już w dobrych dSLR moim zdaniem powinna przeważać filtracja w trakcie obróbki sygnału - software'owa, czy hardware'owa, lub jedna i druga, ale nie na drodze optycznej!

Andee
08-11-2005, 14:27
eMILz, fajnie ze kombinujesz ale nie masz racji, soczewki nie sa filtrem AA i absolutnie nie sluza do usredniania wartosci swiatla przez nie przechodzacego dla uzyskania efektu AA :). Wady korygowane przez filtr AA powstaja juz po przetworzeniu fotonow przez matryce CMOS.

Do SAM'a:

Soczewki maja to do bloomingu ze sa jego glownym sprawca, wlasnie przez kumulacje fotonow, efekt bloomingu wystepuje przy przepelnieniu komorki sensora.

Wiele osob dziwi sie dlaczego obiektyw poprawnie wspolpracujacy z analogiem po zapieciu do lustrzanki Canona z matryca CMOS zaczyna siac aberracja, to wlasnie z trego powodu...

Tutaj cytat, swietnie opisujacy ta wade, po co bede pisal drugi raz to samo skoro ktos to dobrze juz opisal:

"Sprawa bierze się z budowy matrycy. Płaski element światłoczuły posiada w pewnej wysokości nad sobą mikrosoczewkę. Tworzy ona coś w roczaju "domku" nad sensorem o prostopadłych do jego powierzchni ściankach i wypukłym "daszku". Jeśli promień światła z obiektywu nie jest odpowiednio równoległy do osi obiektywu (prostopadły do sensora) dla niektórych promieni mogą one padać nie bezpośrednio na sensor, ale na jedną z bocznych ścianek owego "domku". Może powodować to dwa przykre efekty:
1) Pierwszy objawia się wewnętrznymi odbiciami, jako że promień trafia do sensora dopiero po odbiciu od tej bocznej ścianki, co czasami wywołuje efekt "wewnętrznego blika".
2) Drugi polega na tym, że główny promień się nie mieści i pada dopiero dobity od ścianki "domku" ale z powodu aberracji chromatycznych obiektywu bezpośrednio na sensor pada wiązka rozproszona, część składowa fatalnej obwódki CA. W takim przypadku relacja pomiędzy promieniem głównym, a obwódką CA ulega zmianie na gorsze ( bo promień główny pada jako odbity od ścianki a promień obwódki CA bezpośrednio na sensor). "

KuchateK
08-11-2005, 18:47
Nie wiem jak jest w Nikonie, nie wiem też jak to jest realizowane w Canonie. Miałem na myśli tylko tyle, że aliasing (antyaliasing) to terminy z dziedziny przetwarzania sygnałów, a nie optyki!
Prawda.
Ale wszystko sie wzielo z tego, ze problem, metodologia postepowania zarowno przy obrobce sygnalu jak i obrazu jest praktycznie ta sama. To ze sygnal obrabiasz filtrami, konwerterami i softem a swiatlo szkielkiem nie do konca jest powodem zeby nie mozna bylo filtra optycznego nazwac tak samo jak filtra elektrycznego. Stad ta sama nazwa filtrow zarowno przy obrobce sygnalow jak i swiatla w aparatach.

Tak naprawde cale to szkielko wlasciwie nazywane jest filtrem dolnoprzepustowym (low pass filter). Zreszta tak samo jak filtry dolnoprzepustowe (antyaliasingowe) przed konwerterami sygnalu przy jego obrobce. Chodzi o przyciecie rozdzielczosci sygnalu i wyeliminowanie detali powyzej rozdzielczosci sensora czy konwertera ktore powoduja more w obrazie czy buczenie przy audio.

Niezaglebiajac sie zbytnio w teorie sygnalow w cyfrakach chodzi o lekkie rozmycie najdrobniejszych detali, najlepiej bez naruszenia wszystkiego ponizej. Latwiej powiedziec, trudniej zrobic. Stad rozmycie calego obrazu.


W tańszych i prostszych cyfrakach, gdzie siłą rzeczy używa się mało skomplikowanej obróbki sygnału wykorzystując nieprzesadnie mocne procesory, użycie zmiękczającego filtru optycznego jest być może koniecznością.
Nie do konca... Tak naprawde koniecznosc uzycia filtra jest dyktowana przedewszystkim stosunkiem rozdzielczosci obiektywu i matrycy. Jako ze matryce kompaktow sa upakowane do granic mozliwosci wielokrotnie przewyzszajac rozdzielczosc matryc dslr'ow i obiektywow (zwlaszcza tanich kompaktowych hiperzoomow) praktycznie nie ma tam montowanych filtrow AA bo nie sa konieczne.

Dla signalistow pomyslcie o tym jak o sygnale. Majac sygnal okreslonej niskiej czestotliwosci (swiatlo z obiektywu) i konwerter pozwalajacy na digitalizacje duzo wyzszych czestotliwosci (matryca) nie ma sensu filtrowac sygnalu (filtr na matrycy) ktory i tak nigdy nie zblizy sie do granicy przy ktorej zadziala filter.

Dlatego tez Kodak w swoim sensorze olal filter, gdyz uznal ze rozdzielczosc jest na tyle duza ze poradzi sobie w wiekszosci sytuacji bez filtra.


Natomiast już w dobrych dSLR moim zdaniem powinna przeważać filtracja w trakcie obróbki sygnału - software'owa, czy hardware'owa, lub jedna i druga, ale nie na drodze optycznej!
Nie. Tak sie nie da. Nie wyeliminujesz aliasingu oprogramowaniem czy sprzetem za sensorem czy konwerterem bo to "juz dawno po imprezie".

Zeby wyeliminowac problem aliasingu trzeba sygnal odfiltrowac sygnal przepuszczajac go przez filter dolnoprzepustowy jeszcze PRZED jego konwersja do postaci cyfrowej.

To ze sensor teoretycznie jest analogowy to tylko zmyla. Jego struktura jest scisle cyfrowa. To wlasnie ta matryca pixeli rowno ulozonych zamienia analogowy obraz na cyfrowe pixele. To jest nasz sygnalowy odpowiednik konwertera. To przed tym trzeba odfiltrowac sygnal ograniczajac czestotliwosc zanim zostanie zdigitalizowany i zanim bedzie problem z aliasingiem. Dokladnie tak samo jak w sygnalach.


Aliasing is a major concern in the digital-to-analog conversion of video and audio signals: improper sampling of the analog signal will cause high-frequency components to be aliased with genuine low-frequency ones, and be incorrectly reconstructed as such. To prevent this problem, the signals must be appropriately filtered, before sampling.

It is also a major concern in digital imaging and computer graphics, where it may give rise to moiré patterns (when the original image is finely textured) or jagged outlines (when the original has sharp contrasting edges, e.g. screen fonts). Anti-aliasing techniques are used to reduce such artifacts.

Kubaman
08-11-2005, 19:10
Dzieki za wydzielenie nowego tematu, choc nie sadzilem ze jest tego wart...

Rozmawiamy chyba o Canonach a nie Kodakach czy Nikonach. Rozmawialimy tez chyba o filtrze chroniacym matryce a nie jakichs innych faktycznych czy wyimaginowanych filtrach, a ten filtr w Canonach to filtr IR.
no własnie nie wiem, skąd ty masz taką pewność :roll: . Zauważ, że w linku który podałem jest wyraźnie napisane, że optyczne filtry AA mogą być połączone w całość z IR. I nie chodzi mi tu o potoczne nazewnictwo, bo już wyżej pokazałem do czego to prowadzi.

Prawdziwy filtr AA to rozwiazanie czysto softwareowe, to ze jakis producent wymysla sobie optyczne filtry zmiekczajace i nazywa je AA to sprawa tego producenta,jeeez, proszę poczytaj linka jeśli łaska. Nie obchodzą mnie za bardzo Twoje odczucia tylko fakty. Jeśli są filtry optyczne AA, to są i nie próbuj stosować metodologii tłumaczenia rodem z fanatycznych pogaduszek forumowych. Przecież napisałem jak to działa. Ja się nie wymądrzam (bo nie mam wielkiej wiedzy), tylko na podane opisy techniczne z sieci, których znalazłem wiele, Wy piszecie że to nieprawda i nic nie podajecie konkretniej.

Kubaman
08-11-2005, 19:14
Tutaj cytat, swietnie opisujacy ta wade, po co bede pisal drugi raz to samo skoro ktos to dobrze juz opisal:

"Sprawa bierze się z budowy matrycy. Płaski element światłoczuły kurczę Andee, chociaż w jednym mnie nie zanegowałeś (jam to nie chwaląc się napisał :mrgreen: )

KuchateK
08-11-2005, 19:16
Wszystkim ktorym sie nie podoba nazewnictwo proponuje pisac petycje do marketingowcow i inzynierow Sony czy Canona w dalekiej Japonii ze nie powinni tego tak nazywac bo to nie to.

Tyle ze najpierw radze sie wczytac zarowno w obrobke sygnalow jak i obrobke obrazu w cyfrakach i dostrzec pewne analogie dzialania filtrow zarowno optycznych jak i stosowanych przy konwersji sygnalow. Skoro cos dziala tak samo to czemu nie nazwac tego tak samo? Jakos nie widze wielkiego halo ze robota kuchennego nazywa sie mikserem i nie wolno bo mikser to gdzies tam przy audio i video czy instalacjach gazowych w samochodzie...

Kubaman
08-11-2005, 19:19
Chodzi o przyciecie rozdzielczosci sygnalu i wyeliminowanie detali powyzej rozdzielczosci sensora czy konwertera ktore powoduja more w obrazie czy buczenie przy audio.

Niezaglebiajac sie zbytnio w teorie sygnalow w cyfrakach chodzi o lekkie rozmycie najdrobniejszych detali, najlepiej bez naruszenia wszystkiego ponizej. Latwiej powiedziec, trudniej zrobic. Stad rozmycie calego obrazu.

Nie. Tak sie nie da. Nie wyeliminujesz aliasingu oprogramowaniem czy sprzetem za sensorem czy konwerterem bo to "juz dawno po imprezie".

Zeby wyeliminowac problem aliasingu trzeba sygnal odfiltrowac sygnal przepuszczajac go przez filter dolnoprzepustowy jeszcze PRZED jego konwersja do postaci cyfrowej.
KuchateK, dzięki serdeczne za wsparcie fachowca 8-) Podobnie napisałem wyżej, tylko bez tego całego teoretycznego wyjaśnienia. Dzięki za informacje.

Jurek Plieth
08-11-2005, 20:14
...Stad ta sama nazwa filtrow zarowno przy obrobce sygnalow jak i swiatla w aparatach.
Moim zdaniem zdecydowanie nie! Uważam, że ta sama nazwa bierze się stąd, że o sprawie piszą ludzie nie mający o niej zielonego pojęcia, nawet na tak mądrych portalach jak dpreview itp. W smutnym efekcie natykamy się na takie rafy jak określenie, że jakiś aparat nie ma filtru antyaliasingowego. Po pierwsze więc pytam jakiego filtru nie ma? Tego szklanego (optycznego), czy też tego związanego z obróbką sygnału (co byłoby oczywistą bzdurą, bo tam musi być jakiś filtr). Po drugie zaś co to znaczy, że nie ma filtru? Dobrze to, czy może źle? A na dodatek nie ma jednoznacznej na to odpowiedzi. W ten sposób ludziom, którzy mają prawo z racji braku specjalistycznego wykształcenia nie mieć o tym pojęcia, robi się dodatkowo wodę z mózgu :(


Tak naprawde cale to szkielko wlasciwie nazywane jest filtrem dolnoprzepustowym (low pass filter).
W ten oto sposób sam się na tą rzeczoną rafę nadziałeś. Co nie miałoby miejsca, gdybyś się zastanowił jak wygląda widmo częstotliwościowe światła widzialnego i bliskowidzialnego. "Jadąc" więc z częstotliwością od dołu mamy najpierw podczerwień (IR), następnie światło o kolorze czerwonym, potem zielonym, wreszcie niebieskim i na najwyższych częstotliwosciach (najkrótsza długość fali) ultrafiolet (UV). Na drodze optycznej przez którą przechodzi całe to widmo (np. obiektyw, czy dalej już przed matrycą) wstawiasz "dolnoprzepustowy filtr optyczny" - cytuję Twoją wypowiedź. Jaki to jest więc filtr? Na logikę, aby być w zgodzie z Twoim cytatem jest to filtr, który tłumi światło o częstotliwości większej niż jakaś (wszakże jest dolnoprzepustowy). Jak więc jest to częstotliwość pytam? Na granicy IR i światła czerwonego? Bez sensu, bo taki filtr nie przepuści światła widzialnego. Gdzie jest więc ta częstotliwość odcięcia? Odpowiedź prawidłowa brzmi, że nie w zakresie widma optycznego :mrgreen: Dolnoprzepustowy filtr antyaliasingowy jest bowiem drogi Kuchatku filtrem związanym z obróbką sygnału, a jego częstotliwość odcięcia ma li tylko związek z częstotliwością próbkowania przetwornika A/C, a nie ma żadnego związku z widmem optycznym!
Itd., itd. Nie miejsce to na robienie wykładów na temat przetwarzania sygnałów, ani też ja nie jestem ku temu odpowiednią osobą, bo specjalizuję się w zupełnie innych zagadnieniach. Warto jednakże czasem sięgnąć do zupełnie podstawowych definicji.

SAM
08-11-2005, 20:38
Andee, moje powyższe pytanie pozostaje aktualne. :D
Wytłumaczyłeś mi to co wiedziałem, że soczewki (czy też mikrosoczewki) mogą powodować abberacje.

Natomiast nie ma słowa jak mikrosoczewki powodują blooming. Wg. mnie zjawisko to zależy wyłącznie od natężenia światła padającego na sensory. Po przekroczeniu pewnej wartości charakterystycznej dla danej matrycy następuje efekt nasycenia konkretnego sensora i to co jest istotą bloomingu, do częściowego naładowania sensorów-sąsiadów. Efekt bloomingu występuje oczywiście najczęściej tam gdzie jest bardzo, bardzo jasno, ale widoczny jest dobrze dopiero w miejscach kontrastowych przybierając efekt otoczki. Bardzo podobnie wyglądają abberacje chromatyczne powodowane podłą jakością obiektywów (brak soczewek o niskim współczynniku dyspersji). Abberacje chromatyczne są zjawiskiem czysto optycznym i można je wyeliminować tylko stosując lepiej skorygowany obiektyw. Natomiast, aby usunąć blooming, wystarczy zmienić parametry ekspozycji i otoczka znika.

Co ty na to ?:lol:

SAM
08-11-2005, 20:53
Co do nazwy: filtr AA, to prawdopodobnie nazwa rzeczywiście przyszła ze strony informatycznej, a nie optycznej. Natomiast wg. mnie liczy się efekt działania, jeżeli jakiś mechanizm działa tak samo najczęściej otrzymuje tą samą nazwę. Nasunęła mi się analogia z innej dziedziny, pierwszym rodzajem sterylizacji była sterylizacja gorącym suchym powietrzem, nastepnie przegrzaną parą wodną, tlenkiem etelenu, a ostatnio poprzez naświetlanie UV, promieniami gamma, czy też innymi. Efekt wszystkich powyższych technik jest ten sam, więc logiczne jest że nazwa też jest ta sama.
Ale wracając do AA, jeżeli kawałek odpowiednio spreparowanego szkiełka potrafi zrobić to samo co specjanie napisane oprogramowanie to nie widzę powodu, aby obu nie nazywać filtrami AA (jeden optyczny, drugi programowy). I tyle.

Kubaman
08-11-2005, 21:05
Panowie, jako że dyskusja bardzo mnie ciekawi, podsycam ogień i podpinam następujące informacje wygrzebane z sieci:

cytat:
I should note that film also has this problem of chromatic aliasing: strange borders appear around extreme colour contrasts (such as bright red against bright green) that sometimes look cartoonish or `fantasy'-like. In some cases, extra colours even appear, such as an extra yellow line along an extreme red-green contrast border.

oraz bardzo ciekawa informacja na temat maksymalnej częstotliwości próbkowania i tego, że problemy z tym związane rozwiązuje się instalując odpowiedni filtr przed matrycą (zanim zaczniemy próbkować trzeba odfiltrować).

http://www.photo.net/learn/optics/pixel_peep/pixel_peep_part2.html

muflon
08-11-2005, 21:12
W ten oto sposób sam się na tą rzeczoną rafę nadziałeś. Co nie miałoby miejsca, gdybyś się zastanowił jak wygląda widmo częstotliwościowe światła widzialnego i bliskowidzialnego. "Jadąc" więc z częstotliwością od dołu mamy najpierw podczerwień (IR), następnie światło o kolorze czerwonym, potem zielonym, wreszcie niebieskim i na najwyższych częstotliwosciach (najkrótsza długość fali) ultrafiolet (UV). Na drodze optycznej przez którą przechodzi całe to widmo (np. obiektyw, czy dalej już przed matrycą) wstawiasz "dolnoprzepustowy filtr optyczny" - cytuję Twoją wypowiedź. Jaki to jest więc filtr?(..)
Aj, kurde, mialem sie nie wtracac, ale w koncu ktos (Kuchatek) napisal to i porzadnie i lopatologicznie zarazem, a Ty sie czepiasz w sumie slowek ;-) Przeciez "czestotliwosc" swiatla nie ma tu nic do rzeczy! Mowa jest o obrazie na matrycy, tym, ktory powinien byc probkowany z rozdzielczoscia podwojnego Nyquista, co nawet przy rozdzielczosciach rzedu 1DsMk2 daje powiedzmy mikrometry - czyli ciagle kilka rzedow wielkosci wiecej niz to o czym piszesz. Moze i Kuchatek sie odrobine nieprecyzyjnie wyrazil jesli chodzi o ten 'filtr optyczny', ale przeciez od razu widac o co chodzi.

Choc jesli chodzi o ten "software'owy filtr AA" to mozna by sie klocic (ale jest to spor o definicje, a nie o meritum). Aliasing to z definicji zjawisko, ktore zachodzi w momencie zamiany sygnalu analogowego na cyfrowy - ani pozniej, ani wczesniej, tylko dokladnie wtedy, w dokladnie znanych okolicznosciach. Oczywiscie mozna przepuscic zle sprobkowany obraz (np. z mora z D70 :mrgreen: ) przez mocnego blura i powiedziec, ze jest to filtr AA ;-) I z punktu widzenia "tego co wylazi" na koncu bedzie to nawet w sumie racja... ale formalnie nie :)

Edit: Jurek, teraz widze, ze w drugiej czesci postu napisales to samo :) Ale troche sie wkurzylem na takie czepianie sie ;-)



filtr AA, to prawdopodobnie nazwa rzeczywiście przyszła ze strony informatycznej, a nie optycznej
Oj, nie.. 'aliasing' to pojecie chyba troche starsze niz wiekszosc z nas ;-)

eMILz
08-11-2005, 23:55
Dolnoprzepustowy filtr antyaliasingowy jest bowiem drogi Kuchatku filtrem związanym z obróbką sygnału, a jego częstotliwość odcięcia ma li tylko związek z częstotliwością próbkowania przetwornika A/C, a nie ma żadnego związku z widmem optycznym!


jesli z odleglosci 10 metrow bedziesz widzal zapalki poustawiane co centymetr
i na tej samej odleglosci ustawisz zapalki co 1 metr a nastepnie spojrzysz na nie przez cokolwiek co rozmarze obraz na tyle ze bedziesz mogl policzyc jedynie ilosc tych zapalek poustawianych co metr bo tych co centymetr nie bedziesz mogl rozroznic to czy w istocie nie bedziesz patrzec przez pewien rodzaj filtra dolnoprzepustowego ?

muflon
09-11-2005, 00:03
O wlasnie, a nasze oczy sa jak matryca w D70 - wrazliwe na more :mrgreen:

Andee
09-11-2005, 08:30
Andee, moje powyższe pytanie pozostaje aktualne. :D
Wytłumaczyłeś mi to co wiedziałem, że soczewki (czy też mikrosoczewki) mogą powodować abberacje.

Natomiast nie ma słowa jak mikrosoczewki powodują blooming. Wg. mnie zjawisko to zależy wyłącznie od natężenia światła padającego na sensory. Po przekroczeniu pewnej wartości charakterystycznej dla danej matrycy następuje efekt nasycenia konkretnego sensora i to co jest istotą bloomingu, do częściowego naładowania sensorów-sąsiadów. Efekt bloomingu występuje oczywiście najczęściej tam gdzie jest bardzo, bardzo jasno, ale widoczny jest dobrze dopiero w miejscach kontrastowych przybierając efekt otoczki. Bardzo podobnie wyglądają abberacje chromatyczne powodowane podłą jakością obiektywów (brak soczewek o niskim współczynniku dyspersji). Abberacje chromatyczne są zjawiskiem czysto optycznym i można je wyeliminować tylko stosując lepiej skorygowany obiektyw. Natomiast, aby usunąć blooming, wystarczy zmienić parametry ekspozycji i otoczka znika.

Co ty na to ?:lol:

Przeciez odpowiedzialem...

Cytuje:

"Soczewki maja to do bloomingu ze sa jego glownym sprawca, wlasnie przez kumulacje fotonow, efekt bloomingu wystepuje przy przepelnieniu komorki sensora."

Mikrosoczewki nie powoduja efektu aberracji lecz go wzmacniaja, przez to obiektyw ze znikoma aberracja staje sie w niektorych przypadkach bardzo aberrujacym lub raczej bardzo wzmacniajacym efekt bloomingu... Kazdy obiektyw aberruje chromatycznie, nawet APO, APO nie oznacza braku aberracji lecz stopien jej korekcji.

Jurek Plieth
09-11-2005, 15:03
jesli z odleglosci 10 metrow bedziesz widzal zapalki poustawiane co centymetr
i na tej samej odleglosci ustawisz zapalki co 1 metr a nastepnie spojrzysz na nie przez cokolwiek co rozmarze obraz na tyle ze bedziesz mogl policzyc jedynie ilosc tych zapalek poustawianych co metr bo tych co centymetr nie bedziesz mogl rozroznic to czy w istocie nie bedziesz patrzec przez pewien rodzaj filtra dolnoprzepustowego ?
Dlaczego kojarzysz to z filtrem dolnoprzepustowym? Gdzie widzisz tą "dolnoprzepustowość"?

muflon
09-11-2005, 15:08
Dlaczego kojarzysz to z filtrem dolnoprzepustowym? Gdzie widzisz tą "dolnoprzepustowość"?
No wlasnie mozna by to naciagnac :) Bo jestes w stanie zobaczyc "sygnal" o niskiej czestotliwosci (zapalki co metr), a nie rozrozniasz (albo masz artefakty) szczegolow na "sygnale" o wysokiej czestotliwosci (zapalki co centymetr) :) Choc oczywiscie przyklad tez jest moooocno naciagany - bo jesli rozdzielczosc "oka" przez ktore patrzysz sie nie zmienia, to nie ma to nic wspolnego z aliasingiem, czy antyaliasingiem - ot zwykly blur :)

SAM
09-11-2005, 15:48
Andee, nadal nie mogę się z tobą zgodzić właśnie w tej kwestii.
Napisałeś:
"Soczewki maja to do bloomingu ze sa jego glownym sprawca, wlasnie przez kumulacje fotonow, efekt bloomingu wystepuje przy przepelnieniu komorki sensora."
Blooming może powstać, niezależnie czy strumień fotonów przelatuje przez soczewką, czy też nie - choćby w fotografii otworkowej.
Zresztą w twoim tekście widzę sprzeczność, jeżeli blooming "powstaje po przepełnieniu komorki sensora", to czy sensor ten jest oświetlany przez mikrosoczewkę czy krasnoludka ze świeczuszką, nie ma znaczenia. Liczy się jedynie liczba fotonów. Chcesz powiedzieć, że gdyby przed matrycą nie było żadnych soczewek blooming by nie występował ?

Andee
09-11-2005, 16:31
Blooming zawsze moze wystapic, zalezy na co skierujesz obiektyw... Nie napisalem ze mikrosoczewki sa "jedynym sprawca" bloomingu, lecz ze sa jego "glownym sprawca", co chyba wyraznie widac w mojej wypowiedzi.

eMILz
09-11-2005, 16:54
Dlaczego kojarzysz to z filtrem dolnoprzepustowym? Gdzie widzisz tą "dolnoprzepustowość"?


bo filtrem dolnoprzepustowym nie jest tylko cewka wpieta w szereg, z glosnikiem
czy prosty warunek jesli i<100 .. bla bla bla

tak samo filtrem gornoprzepustowym nie moznabyloby okreslic sitka ...
a niewatpliwie nim jest.

dlatego mozna nazwac filtrem dolnoprzepustowym element optyczny.

eMILz
09-11-2005, 16:59
ah jeszcze odnosnie tego dlaczego soczewki moga byc filtrem AA

nie chcialo mi sie rysowac wiec tu jest link do rysunku http://www.siggraph.org/education/materials/HyperGraph/aliasing/images/34_93.gif

jesli sensor bedzie wielkosci tych malych kropeczek, malo prawdopodobne jest ze przybierze wartosc rozna od czarnej badz pomranczowej ....
ale wyobrazmy sobie ze te punkciki beda o srednicy nie 1 pix tylko 10pix

czy wtedy obraz po prawej bedzie nadal taki sam ??

JasiuB
09-11-2005, 17:37
Czołem.


Dlaczego kojarzysz to z filtrem dolnoprzepustowym? Gdzie widzisz tą "dolnoprzepustowość"?
To JEST filtr dolnoprzepustowy. Jak technicznie jest zrobiony podobny w aparatach możesz poczytać tutaj:
http://www.newton.dep.anl.gov/askasci/eng99/eng99312.htm

Filtrowanie antyaliasingowe musi być zrobione przed przetwarzaniem sygnału na postać dyskretną. Wszelakie software'owe próby poprawiania post factum to proteza, bo tak naprawdę nie ma żadnej metody stwierdzenie co jest rezultatem aliasingu, a co nie. Pomoże oversampling, ale to da się to zrobić tylko przy generacji obrazu o rozdzielczości znacznie mniejszej niż rozdzielczość matrcy.

Zwróć uwagę (bo zdaje się, że Ci to umnkęło), że przetwarzany jest sygnał obrazu w funkcji położenia, a nie w funkcji czasu. Częstotliwość przetwornika A/D nie ma tu zupełnie nic do rzeczy.

MUFLON -> Zjawisko aliasingu istnieje przecież "od zawsze"... Natomiast zdano sobie sprawę z jego istnienia gdzieś w latach 20 (w każdym razie na długo przed II W.Ś.). Jest tu ktoś starszy?. Zaś eMILz nie pisał, że w oku będzie aliasing, a podał przykład filtru, przynajmniej takie odniosłem wrażenie.

Pozdrawiam,
Jasiu

KuchateK
09-11-2005, 18:22
To jeszcze ja... Jak zwykle wyjdzie przydlugie :mrgreen:


Moim zdaniem zdecydowanie nie! Uwazam, ze ta sama nazwa bierze sie stad, ze o sprawie pisza ludzie nie majacy o niej zielonego pojecia, nawet na tak madrych portalach jak dpreview itp.
Niech Ci bedzie... Nie kazdy jest inzynierem Canona i nie kazdy studiowal obrobke sygnalow.


W smutnym efekcie natykamy sie na takie rafy jak okreslenie, ze jakis aparat nie ma filtru antyaliasingowego. Po pierwsze wiec pytam jakiego filtru nie ma? Tego szklanego (optycznego), czy tez tego zwiazanego z obróbka sygnalu (co byloby oczywista bzdura, bo tam musi byc jakis filtr). Po drugie zas co to znaczy, ze nie ma filtru? Dobrze to, czy moze zle? A na dodatek nie ma jednoznacznej na to odpowiedzi. W ten sposób ludziom, którzy maja prawo z racji braku specjalistycznego wyksztalcenia nie miec o tym pojecia, robi sie dodatkowo wode z mózgu :(

W ten oto sposób sam sie na ta rzeczona rafe nadziales. Co nie mialoby miejsca, gdybys sie zastanowil jak wyglada widmo czestotliwosciowe swiatla widzialnego i bliskowidzialnego. [...]
wstawiasz "dolnoprzepustowy filtr optyczny" - cytuje Twoja wypowiedz. Jaki to jest wiec filtr? Na logike, aby byc w zgodzie z Twoim cytatem jest to filtr, który tlumi swiatlo o czestotliwosci wiekszej niz jakas (wszakze jest dolnoprzepustowy). [...]
ze nie w zakresie widma optycznego :mrgreen: Dolnoprzepustowy filtr antyaliasingowy jest bowiem drogi Kuchatku filtrem zwiazanym z obróbka sygnalu, a jego czestotliwosc odciecia ma li tylko zwiazek z czestotliwoscia próbkowania przetwornika A/C, a nie ma zadnego zwiazku z widmem optycznym!
[...]
Warto jednakze czasem siegnac do zupelnie podstawowych definicji.
Strasznie motasz. Bez obrazy, ale uwazam ze to Ty robisz wode z mozgu tutaj nie do konca majac pojecie jak odbywa sie cala obrobka i co tak naprawde obrabiasz. Jestes pewien ze wiesz co jest tak naprawde sygnalem w naszym wypadku i co i jak mozesz filtrowac? Zaraz Ci pokaze gdzie i jak tam "musi byc jakis filtr", gdzie tak naprawde , co i po co filtrujemy i obrabiamy.



Przesledzmy proces od poczatku w oparciu o proste definicje zgodnie z tym co napisales. Cytujac Wikipedie i tlumaczac to nieco dowolnie (bo tlumacz ze mnie marny):


a signal is a flow of information. Most signals of interest can be modeled as functions of time or position
Sygnal to przeplyw (potok) informacji. Wiekszosc sygnalow moze byc zaprezentowana w postaci funkcji w czasie albo polozeniu (w przestrzeni).

Czyli bezposrednio odnosza sie do czasu albo przestrzeni. Nie wazne co tylko gdzie albo kiedy. To jest dosyc wazne. To nam wyznacza co tak naprawde jest sygnalem.


The two main types of signals are analog and digital. In short, the difference between them is that digital signals are discrete and quantized, as defined below, while analog signals possess neither property
Dwa glowne typy sygnalow to analogowe i cyfrowe. W skrocie roznica pomiedzy nimi jest taka, ze sygnaly cyfrowe sa dyskretne (odrebny; oderwany; nieciagly; ziarnisty) oraz okreslone ilosciowo (z gory okreslona ilosc wartosci dyskretnych). Analogowe nie posiadaja zadnej z tych wlasnosci.

Zwlaszcza polecam nieciaglosc i ziarnistosc jako okreslenie cyfrowosci.

Generalnie definicje jak zwykle malo zrozumiale :D

Przesledzmy co sie dzieje zanim dostaniemy obraz cyfrowy.

Swiatlo z obiektywu pada na sensor. Na nim ulozone w matryce (siatke) komorki swiatloczole zamieniaja swiatlo proporcjonalnie na elektrony. Nastepnie elektrony sa "liczone" i reprezentowane jako wartosc liczbowa. Zbior tych wartosci liczbowych z calej matrycy daje nam cyfrowy plik w postaci RAW'a. Jego cyfrowosc chyba nie ulega watpliwosci. Jak widac w calym procesie jest kilka zmian wielkosci fizycznych w ktorych efekcie otrzymujemy scisle cyfrowy wynik w postaci plikow RAW na CF"ie.

Przesledzmy co dzieje sie w poszczegolnych krokach.

Zamiana analogowego ladunku elektrycznego (elektronow) z piksela na wartosc liczbowa. Zgodnie z definicja jest to konwerter analogowo cyfrowy. Ale czy tak naprawde mozemy mowic o sygnale?

Zdecydowanie calosc obrabianej informacji jest oderwana od czasu. Nie ma znaczenia czy konwertujemy piksel na godzine czy 69 milionow na sekunde (1dsmkII). Calosc informacji oderwana jest tez dosyc znacznie od przestrzeni. Nie ma znacznenia czy bedziemy przetwarzac piksele z matrycy po kolei czy losowo, w pionie, poziomie, pojedynczo czy po osiem na raz. Zawsze otrzymamy ta sama wartosc dla kazdego z nich.

Przetwornik elektronow w aparacie cyfrowym nie ma zadnego zwiazku z czasem i przestrzenia. Operujac na pikselu caly proces nie odnosi sie do niczego. Na wejsciu mamy jedna wielkosc oderwana od innych, na wyjsciu inna proporcjonalna do wejscia. Tak samo jest z zamiana fotonow na elektrony. Calosc odbywajaca sie na poziomie piksela jest oderwana od calej reszty obok oraz niezalezna od czasu.

Wyjdzmy jeszcze raz z definicji sygnalu i skorzystajmy z analogii...

Mamy magnetofon cyfrowy z analogowym wejsciem. Cale urzadzenie rejestruje elektryczne analogowe sygnaly zmienne w czasie (jedna z podstaw sygnalu) w postaci cyfrowej. Jest sygnal w czasie, konwerter majacy wyrazna czestotliwosc probkowania (mierzy cos w czasie) i filtr ograniczajacy czestotliwosc (w czasie) sygnalu do naszego kownertera. Dalej zapis, ale to juz sygnal cyfrowy...

Czy nasz konwerter bedacy pikselem z waga zamieniajacy w dwoch krokach ilosc swiatla dajac nam jego cyfrowy odpowiednik w postaci liczby dziala podobnie? Nie ma zadnej zaleznosci od czasu. Mierzymy przeciez calkowita ilosc swiatla z piksela bez zadnego "na sekunde". Tak samo przestrzen. Mamy piksel lapiacy okreslona ilosc swiatla. Czy ma znaczenie gdzie on to lapie dla wyniku?

Uderzmy w temat inaczej...

Definicja:

A digital image is a representation of a two-dimensional image as a finite set of digital values, called picture elements or pixels.
Obraz cyfrowy to reprezentacja dwu wymiarowego obrazu jako zbioru skonczonych cyfrowych wartosci nazywanych elementami obrazu lub pikselami.

Traktujac calosc nieco dowolnie tak naprawde nie ma znaczenia czy wartosci beda w postaci ilosci swiatla, ilosci elektronow czy liczby reprezentujacej jedno albo drugie. Liczy sie tylko i wylacznie fakt ze jest to skonczony zbior punktow w dwuwymiarowej przestrzeni. Tak naprawde mozemy na murze pedzlem malowac obraz skladajacy sie z pikseli piszac poszczegolne wartosci rgb punktow skladowych czy malujac kolory i to tez bedzie obraz cyfrowy.

Wlasnie... Proste definicje...

Wrocmy do analogii magnetofonu. Magnetofon zamienia nasz sygnal elektryczny w czasie (zarowno audio jak i video) na postac cyfrowa. A co robi cyfrak?

Czyz nie jest tak ze obrabiajac nasze piksele mamy juz doczynienia z obrazem cyfrowym? Czy ma znaczenie czy zawartosc pikseli bedzie w ilosci swiatla, elektronach, liczbach czy ogorkach w sloikach dla calosci obrazu?

Cala zamiana obrazu na cyfrowa postac sprytnie i niezauwazenie nastepuje jeszcze zanim swiatlo zostanie zamienione na elektrony i grubo przed zamiana tego swiatla jako liczby w pliku RAW. To tu jest tak naprawde nasze swiatlo gdzies w przestrzeni. Tu plynne swiatlo jest zamieniane na cyfrowa matematyczna postac w okreslonej przestrzeni dwuwymiarowej podzielonej na cyfrowe ziarna bedace pikselami na matrycy.

Skoro tu mamy nasz sygnal (w przestrzeni) to gdzie nasza czestotliwosc probkowania? Jako ze operujemy w przestrzeni a nasza jednostka cyfrowa sa piksele to bedzie to rozdzielczosc sensora i gestosc upakowania pikseli na matrycy w przestrzeni. Zwykle piksele na milimetr. Patrzcie jak na wierzchu i jakie proste... Skoro wiemy juz gdzie mamy sygnaly "analogowe" i gdzie lezy nasze ograniczenie przejdzmy do filtrowania sygnalu (obrobka sygnalow).

Jurek napisal o swietle jako fali swiatla widzialnego i bliskowidzialnego. Rzeczywiscie tak jest. Mamy czerwony, zielony, niebieski, podczerwien, ultrafiolet i co tam jeszcze sobie kazdy wynajdzie (w encyklopedii)...

Obrabiajmy... Jako ze sensory sa praktycznie tak samo czule na swiatlo widzialne jak i podczerwien nalezy obrobic sygnal ograniczajac czestotliwosc. W tym wypadku co prawda nie jest to filtrowanie do mozliwosci czestotliwosciowych naszego konwertera a do niepozadanych wartosci ktore powoduja nieprawidlowe oddanie barw.

Wycinamy cala podczerwien. Robi sie to na dwa sposoby. Albo poprzez szybke zwana "dichroic mirror" odbijajaca cala podczerwien a przepuszczajaca wszystko inne albo poprzez szklo pochlaniajace podczerwien (infrared absorption glass). Canon stosuje tutaj kanapke skladajaca sie z obu tych elementow (najpierw odbija a reszte pochlania). Podobne elementy sa na bezfiltrowych sensorach kodaka i wszystkich innych nieastronomicznych zastosowaniach sensorow krzemowych. Podczerwien generalnie jest niepozadana w normalnym fotografowaniu.

Ultrafiolet z drugiej strony nas nie interesuje, sensory sa w zasadzie nieczule na niego, swiatlo widzialne oczywiscie chcemy najchetniej w postaci nienaruszonej...

Dochodzimy do punktu w ktorym warto przypomniec po co to wszystko tu pisze.

Ano po to:


https://canon-board.info//brak.gif
źródło (http://upload.wikimedia.org/wikipedia/en/f/fb/Moire_pattern_of_bricks_small.jpg)


https://canon-board.info//brak.gif
źródło (http://upload.wikimedia.org/wikipedia/en/f/f6/Aliasing-plot.png)

Problemem zwiazanym z probkowaniem sygnalu i jego zamiana na postac cyfrowa jest aliasing.

Jak to powstaje i co to jest? Probkujac z pewna czestotliwoscia sygnal wysokiej czestotliwosci uzyskujemy zbior cyfrowych danych odpowiadajacy sygnalowi nizszej czestotliwosci. Zupelnie jak na wykresie powyzej. Mimo ze probkowalismy czerwona sinusoide tak naprawde majac tylko cyfrowe dane w postaci tych punktow nie jestesmy w stanie powiedziec czy probkowane bylo to niebieskie czy to czerwone gdyz nie mamy zadnych danych o sygnale pomiedzy probkami przed konwersja.

Aliasing (podobnie jak sygnal) moze byc zarowno w czasie jak i w przestrzeni. Ten drugi odnosi sie bezposrednio do naszego przypadku i obrazu. Jak wyglada? Znana wszystkim popularna mora. To ta "duza fala" (urojona) powstajaca z malej probkowanej z nieodpowiednia czestotliwoscia.

Ale zaraz... Skoro czestotliwosci to nasze podczerwienie i ultrafiolety... No wlasnie. Proste definicje. Wylazla fizyka ze szkoly.

Jak zapewne wiekszosc tutaj technicznych wie, swiatlo ma nature korpuskularno-falowa. To nie tylko podczerwienie i ultrafiolety (fale) ale tez strumien czasteczek zwanych fotonami.

Zamieniajac naszym konwerterem (sensorem) swiatlo na piksele nie zamieniamy go bazujac na pasmach i kolorach (czyli fali w czasie) a bazujac na jego ilosci w przestrzeni (fotonach). Naszym sygnalem nie jest podczerwien, ultrafiolet, niebieski czy zielony ale ilosc swiatla w danym punkcie matrycy. Ilosc w przestrzeni. Nasza czestotliwosc to dajace sie rozroznic linie na milimetr pochodzace z obiektywu. Jak widac podstawa nadal scisle pasuje do definicji sygnalu i encyklopedycznych definicji aliasingu.

Znamy tez juz ograniczenie konwertera (czestotliwosc probkowania) w postaci pikseli w przestrzeni (jednostki sie zgadzaja) wiec mozemy tu stosowac nasze teorie obrobki sygnalu i filtrowanie...

Tak. Tu. Nie na sensorze podczas zamiany fotonow na elektrony i pozniej podczas zamiany ladunku na liczby w rawie. Obie te rzeczy przeprowadza sie dla pojedynczych pikseli w oderwaniu od calej reszty i to tak naprawde kosmetyka. Rownierz robiac z rawem kombinacje bayera czy jakiekolwiek inne operacje na pikselach obrabiamy sygnal cyfrowy. To operujac na swietle jako takim stosuje sie wszelkie nyquisty, czestotliwosci, filtry i cala reszte matematyki czestotliwosciowej.

Czemu nie dalej? A gdzie i jak niby mialo by sie to odbywac skoro sygnal jest juz cyfrowy? Jak juz napisalem nasza konwersja do postaci cyfrowej nastepuje w momencie dzielenia obrazu z obiektywu na piksele. Cala reszta operacji po podzieleniu na piksele odbywa sie w oderwaniu zarowno od przestrzeni jak i od czasu bazujac na pojedynczych pikselach jako suchej reprezentacji cyfrowej. Teraz juz po frytkach. Aliasing wystepujacy przy probkowaniu obrazu do postaci cyfrowej jesli mogl to wystapil.

Mamy juz cyfrowy obraz z pikseli. Skad wiadomo ze to mora a nie cien na budynku? Skad wiadomo ze fotografujemy ubranie jednolitego koloru a nie w paski/prazki/cokolwiek? No wlasnie. Nie wiemy. Mory (aliasingu) nie da sie wyeliminowac po tym jak wystapi. Nawet traktujac wszystkie piksele jako zbior nic na aliasing nie poradzimy bo to juz jest sygnal cyfrowy. Stracilismy bezpowrotnie plynnosc analogowego sygnalu z obiektywu uzyskujac w zamian cyfrowa ziarnistosc. Zgadza sie?

Kryterium Nyquista mowi, ze aliasing wystapi jesli czestotliwosc sygnalu probkowanego jest wyzsza jak polowa czestotliwosci probkowania. To mozna bardzo latwo policzyc. Rozdzielczosc sensora jest scisle okreslona, zdolnosci obiektywow tez... Porownujac jedno i drugie mozna wyliczyc czy i kiedy wylozy sie nasz zestaw.

Jako ze caly czas o filtrowaniu...

W przypadku sygnalow bazujacych w oparciu o czas zastosowanie filtra dolnoprzepustowego jest w zasadzie bardzo proste. Majac przebieg elektryczny w czasie (np. audio) mamy szereg najrozniejszych elektrycznych filtrow o ostrej charakterystyce odciecia pozwalajacych wyeliminowac zaklucajacy calosc sygnal wprowadzajacy artefakty zwiazane z aliasingiem. Bylo na elektronice :)

W zasadzie nawet majacy obalic teorie przyklad z IR swietnie pokazuje ze bardzo latwo pracowac na sygnalach wzgledem czasu nawet jesli jest to swiatlo (fala rzedu set terahercow). Wyciecie podczerwieni czy swiatla widzialnego bazujac na czestotliwosci w czasie jest banalne. Prawie wszyscy maja filtry IR na matrycy i sporo ludzi wie o istnieniu R72 pozwalajacego na fotografie w podczerwieni czy UV'kach eliminujacych ultrafiolet. Filtr czerwony, zielony czy niebieski tez bazuje na czestotliwosci swiatla w czasie.

W optyce i obrobce sygnalu bazujacej na przestrzeni niestety tego typu filtry nie istnieja.

Eliminacja wysokich czestotliwosci (drobnych detali w obrazie) odbywa sie poprzez zmiekczenie calego obrazu. Tracimy drobne detale, ale niestety calym procesem dotykamy tez wszystko inne. Tak. Nasz filtr dolnoprzepustowy to szkielko zmiekczajace caly obraz przed matryca. Inaczej sie nie da.

Tu sa dwie metody. Albo jak Canon bez mory, albo nieco ostrzej jak Nikon i Kodak. Mozna tez kompaktowo. Upychajac duza liczbe sensorow (duza czestotliwosc probkowania) przewyzszymy rozdzielczosc sygnalu pochodzacego z obiektywu. Niestety w tym wypadku tracimy na czulosci sensora i w plecy jestesmy na szumach. Nie ma nic za darmo.

Pamieta ktos lekarstwo na more w Kodaku? Wiemy ze dyfrakcja ogranicza rozdzielczosc obiektywu. Stad numer z przymykaniem obiektywu do np. f/16 pozwalajacy pozbyc sie mory. Jeden z przykladow filtrowania.

Mam nadzieje ze nie musze dalej udowadniac ze w naszym bidnym Kodaku (i nie tylko nim) nie ma filtra, nie musi nigdzie byc oraz skad sie wziely takie a nie inne okreslenia na poszczegolne elementy i co tak naprawde jest cyfrowe a co analogowe. Jak widac wszystko mozna sprowadzic do prostych definicji i wyjasnic bez zadnego "musi byc" oraz pomimo ze jest kupe analogii niestety nie wszystko bezposrednio przenosi sie z jednego na drugie.

O calym tym temacie sa tony materialow w sieci, to powyzej to tylko prostacko nienaukowo opisany zarys zagadnienia. Niech mi ktory wyjedzie tutaj z czasem naswietlania jako dowodem na zaleznosc od czasu czy tym ze ten opis jest zly bo bayer i to pasuje tylko do foveona (tez jest mora, wlasnie taka mono o jakiej pisze) lub sensora jednokolorowego (takie tez sa) to utluke :mrgreen:

KuchateK
09-11-2005, 18:42
ah jeszcze odnosnie tego dlaczego soczewki moga byc filtrem AA
Wyjdz z definicji obrazu cyfrowego i uswiadom sobie co robia soczewki? No wlasnie. One nie zmiekczaja obrazu zachowujac jego analogowa plynna postac. One dziela obraz rozrywajac go na punkty odpowiadajace pikselom. Jedyne ich zadanie to zwiekszenie efektywnosci piksela w lapaniu swiatla w obrebie tego piksela. Ich praca odnosi sie tylko i wylacznie do pikseli.

Filtr to rozmywanie naszej fali swietlnej tak, ze najdrobniejsze detale beda powyzej naszego podwojnego nyquista, czyli dwa piksele. Filtr pracuje na poziomie wyzszym od piksela obejmujac ich grupy dbajac o to aby stosunek naszego sygnalu do naszej czestotliwosci probkowania byl odpowiedni.

eMILz
09-11-2005, 19:16
Wyjdz z definicji obrazu cyfrowego i uswiadom sobie co robia soczewki? No wlasnie. One nie zmiekczaja obrazu zachowujac jego analogowa plynna postac. One dziela obraz rozrywajac go na punkty odpowiadajace pikselom. Jedyne ich zadanie to zwiekszenie efektywnosci piksela w lapaniu swiatla w obrebie tego piksela. Ich praca odnosi sie tylko i wylacznie do pikseli.

Filtr to rozmywanie naszej fali swietlnej tak, ze najdrobniejsze detale beda powyzej naszego podwojnego nyquista, czyli dwa piksele. Filtr pracuje na poziomie wyzszym od piksela obejmujac ich grupy dbajac o to aby stosunek naszego sygnalu do naszej czestotliwosci probkowania byl odpowiedni.

Zle napisalem .. ze moga byc filtrem AA
ale zgodzisz sie ze ze ich wielkosc moze miec wplyw na zmniejszenie zjawiska aliasingu ...

Andee
09-11-2005, 19:20
Niemoze miec wplywu, aliasing powstaje juz za nimi a nawet za detektorami na ktore naprowadzaja one swiatlo...

eMILz
09-11-2005, 22:39
http://img325.imageshack.us/img325/3171/untitled12al.jpg

teraz troszke domalowalem moze latwiej bedzie mi przedstawic o co mi chodzi ...

w drugim przypadku sensorem jest maly punkcik w srodku kwadraciku...

w pierwszym nad sensorkiem umieszczamy soczewke ktora ma dawac mu wiecej swiatla ...

efekty sa po prawej ...
czy drugi przypadek bedzie mial sklonnosci do wiekszego schodkowania ??

Andee
09-11-2005, 23:28
Niestety chyba sie nie dogadamy :)

muflon
10-11-2005, 00:08
Pewnie ze sie nie dogadacie... nikt z nikim :) bo dyskusja zeszla na standardowe "czy crop wplywa na GO", gdzie kazdy juz dawno zapomnial o co biegalo na poczatku :) Proponuje prosty test: niech kazdy napisze w jednym zdaniu (max. 20 slow) co chce przekazac tymi dlugimi wywodami :mrgreen:

KuchateK
10-11-2005, 00:15
efekty sa po prawej ...
czy drugi przypadek bedzie mial sklonnosci do wiekszego schodkowania ??
To nie jest cyfrowa grafika komputerowa gdzie jak Ci przechodzi przez kwadratu srodek kwadratu to jest, a jak nie to nie ma. Poczytaj wyklad goscinny Marka Lewandowskiego z pl.rec.foto.cyfrowa i zobacz jak zachowuje sie ladunek w cemosie ktory nie pada bezposrednio na obszar fotoczuly. No wlasnie. Caly numer polega na tym ze rowniez i obszar poza aktualnym sensorem w obrebie piksela bierze udzial w wychwytywaniu ladunku nawet jak tam nie ma soczewek. To nie jest mikroskopijna kropka na srodku i cala reszta poza nia nie idzie na straty.

Tomasz Urbanowicz
15-08-2006, 18:06
Witam

Szukam materiałów na temat filtru AA. Mam bardzo powierzchowną wiedzę na jego temat, więc chciałbym ją pogłębić :) Zacznę może od banalnych wydawałoby się pytań:

1. W jakiem celu się go stosuje?
2. Co by było gdyby go nie było?
3. Czy we wszystkich typach matryc jest on stosowany (jeśli nie we wszystkich to dlaczego)?
4. Dlaczego przy jednych matrycach jest on silniejszy, przy innych słabszy?
5. Czy istnieje alternatywa dla filtru AA?
6. Zasada działania i budowa (w miarę szczegółowy opis w miarę możliwości).
7. Wady i zalety filtru AA.

Bardzo byłbym wdzięczny za wszelkie informacje na ten temat.

EDYCJA:
Znalazłem "polemikę" na temat filtru AA:

http://groups.google.pl/group/pl.rec.foto.cyfrowa/browse_thread/thread/5923b98a62a28a40/d7a072d0004292ba?q=filtr+AA+matryca&lnk=nl&hl=pl&

ale nie bardzo rozumiem :)

Z góry dziękuję.

KuchateK
15-08-2006, 18:19
Zdaje sie ze watek o tym byl i u nas ;)
http://canon-board.info/showthread.php?t=6545

To ten post...
http://canon-board.info/showthread.php?p=97799#post97799
Jak przeczytasz go powinien Ci nieco rozjasnic w kilku punktach powyzej. A jak nie to pisz :D

Aha... Nie recze ze to co tam napisalem (jak zwykle sporo) nie jest jedna wielka bzdura :D


OT: Muflon, nie wiedzialem ze masz minolcie (http://groups.google.pl/group/pl.rec.foto.cyfrowa/msg/c4237d1054476510) ;)

Kolekcjoner
15-08-2006, 18:29
Trochę jest na ten temat (także i odnośniki do innych stron) w Wikipedii. Spróbuj też poszukać pod hasłem "kryształ dwójłomny" ew. dwójłomność! Tutaj masz link (http://pl.wikipedia.org/wiki/Kryształ_dwójłomny). Same rysunki już sporo wyjaśniają.

Tomasz Urbanowicz
15-08-2006, 20:31
Dziękuję - zatapiam się w lekturze :)

Tomasz Urbanowicz
16-08-2006, 08:40
OK - poczytałem, poczytałem również wykłady gościnne Marka Lewandowskiego i...

1. Sygnał analogowy (fotony) mamy przetworzony na elektryczny już w zasadzie samej matrycy - w CCD zbieramy do "kubła" wybite elektrony, w CMOS za pomocą fotodiody + 3 tranzystory otrzymujemy odpowiednik napięcia w zależności od światła (fotonów) w celi matrycy. Na tym etapie nie ma mowy o próbkowaniu - ot, liniowa zależność (w układzie półprzewodnikowym wykorzystujemy jego liniową charakterystykę do tego celu). Wiadomo, że światło ma naturę korpuskularno-falową i w zasadzie z celi zliczamy tylko fotony. Aby odnieść się do koloru, matryca pokryta jest malutkimi filtrami R, G, B (gdzie zielonego jest dwa razy więcej) - nie będę się tu rozpisywał, wiadomo o co chodzi. Teraz pytanie. Na jakim etapie dalszym stosowane jest próbkowanie? Po co jest stosowane, skoro mamy już zapis cyfrowy, który odzwierciedla ilość fotonów?
2. Skoro matryca "pokryta" jest malutkimi filtrami R, G, B po co stosowane są dodatkowe filtry wcześniej typu IR itp?
3. Marek Lewandowski chyba twierdzi (tak chyba zrozumiałem czytając polemikę z grupy dyskusyjnej), że istnieje fizycznie filtr AA w postaci płytki optycznej przed matrycą. Czy istnieje naprawdę? Z tego co rozumuje, jest to filtr softowy (tu na tym etapie nie rozumiem jego stosowanie, gdyż w moim pytaniu nr 1 mam niejasność co do próbkowania).
4. Skoro jest nad matrycą jakiś filtr (czy to "AA", IR czy inny zmiękczający) ile tracimy na rozdzielczości zdjęcia? Przykłądowo mamy super obiektyw typu L Canona - ile tracimy linii/mm? Czy jest ktoś w stanie powiedzieć na podstawie matrycy w 350D?
5. W jaki sposób jest możliwe zrobienie zdjęć w podczerwieni w Canonie 350D, skoro występuje nad matrycą filtr IR, który obcina promieniowanie podczerwone?
6. I czy istotnie matryca jest mało czuła na promieniowanie UV? Jaki jest zatem sens stosowanie filtrów UV?

piast9
16-08-2006, 10:49
Na jakim etapie dalszym stosowane jest próbkowanie? Po co jest stosowane, skoro mamy już zapis cyfrowy, który odzwierciedla ilość fotonów?
Bo sygnał z matrycy mamy analogowy. I próbuje się go w momencie zejścia z matrycy. Matryca nie zlicza przecież fotonów. Zmienia się jedynie napięcie w pixelu, zależnie od tego ile tych fotonów wpadło. I ile elektronów uciekło/wpłynęło bokiem :) (szum)


2. Skoro matryca "pokryta" jest malutkimi filtrami R, G, B po co stosowane są dodatkowe filtry wcześniej typu IR itp?

Pewnie dlatego, że ten filtr kolorowy przepuściłby i IR.

3. Marek Lewandowski chyba twierdzi (tak chyba zrozumiałem czytając polemikę z grupy dyskusyjnej), że istnieje fizycznie filtr AA w postaci płytki optycznej przed matrycą. Czy istnieje naprawdę?[/QUOTE]
Istnieje. Fizycznie. Szybka taka. I w niektórych aparatach można go sobie nawet wyjąć.


Z tego co rozumuje, jest to filtr softowy (tu na tym etapie nie rozumiem jego stosowanie, gdyż w moim pytaniu nr 1 mam niejasność co do próbkowania).
Ale chodzi Ci o próbkowanie w jakiej dziedzinie? Przetwarzanie A/D jest w dziedzinie jasności, przetrzennie matryca działa już dyskretnie. Filtr AA wpływa właśnie na tę drugą dyskretyzację.


4. Skoro jest nad matrycą jakiś filtr (czy to "AA", IR czy inny zmiękczający) ile tracimy na rozdzielczości zdjęcia? Przykłądowo mamy super obiektyw typu L Canona - ile tracimy linii/mm? Czy jest ktoś w stanie powiedzieć na podstawie matrycy w 350D?
Trochę tracimy. Nikon ma słabsze zmiękczanie, banknoty w makro wychodzą ostrzej, ale na niektórych ujęciach wychodzi mora. Coś za coś. Moim zdaniem prościej rozmiękczone zdjęcie wyostrzyć USM niż walczyć z morą.


5. W jaki sposób jest możliwe zrobienie zdjęć w podczerwieni w Canonie 350D, skoro występuje nad matrycą filtr IR, który obcina promieniowanie podczerwone?
Niektórzy go demontują. A nawet bez niego jest to możliwe bo ten filtr trochę IR przepuszcza. Zakładasz na obiektyw taki, co widzialnego nie przepuszcza, robisz ekspozycję 30s w jasny dzień i masz fotkę w IR ;)


6. I czy istotnie matryca jest mało czuła na promieniowanie UV? Jaki jest zatem sens stosowanie filtrów UV?
Istotnie. Głębokość wnikania UV w krzem jest na tyle mała, że wygenerowane nośniki w małym stopniu docierają do obszaru aktywnego fotodetektorów. Trochę może to wpływa, nie byłem w Himalajach ani nie robiłem zdjęć w solarium. Na pomiar światła może to mieć wpływ, słyszałem, tam jest dużo prostszy czujnik, jego obszar aktywny może być bliżej powierzchni, ale to gdybania.

Tomasz Urbanowicz
16-08-2006, 11:04
Ale chodzi Ci o próbkowanie w jakiej dziedzinie? Przetwarzanie A/D jest w dziedzinie jasności, przetrzennie matryca działa już dyskretnie. Filtr AA wpływa właśnie na tę drugą dyskretyzację.

Możesz się do tego odnieść?

W sieci można znaleźć dwie opinie:
1. Filtr AA jest to filtr elektroniczny. (optyczny jest rzekomo filtr dolnoprzepustowy)
2. Filtr AA jest elementem optycznym - czyli tak dobrany, aby ograniczyć "rozdzielczość optyczną" (zależnie od częstotliwości próbkowania).

OT: Jaki zakres F-stop posiada matryca w 350D, ilu jest bitowa? Jaką rozdzielczość maksymalną może zarejestrować ograniczona filtrem AA?

Cyborg
16-08-2006, 11:47
Możesz się do tego odnieść?

W sieci można znaleźć dwie opinie:
1. Filtr AA jest to filtr elektroniczny. (optyczny jest rzekomo filtr dolnoprzepustowy)
2. Filtr AA jest elementem optycznym - czyli tak dobrany, aby ograniczyć "rozdzielczość optyczną" (zależnie od częstotliwości próbkowania).

Filtr AA można zrealizować zarówno w postaci optycznej, jak i w post procesingu. W postaci elektronicznej byłoby delikatnie mówiąc trudno w kierunku prostopadłym do kierunku odczytu pikseli z matrycy.
Canon i Nikon stosują optyczne. Kaodak stosował postprocesing z miernym rezultatem.


Jaki zakres F-stop posiada matryca w 350D
Tu masz wyniki dla paru aparatów: http://www.dpreview.com/reviews/canoneos5d/page22.asp
350D nie ma, ale można wyciągnąć wnioski.


ilu jest bitowa?
12


Jaką rozdzielczość maksymalną może zarejestrować ograniczona filtrem AA?
Rozdzielczość bezwzględna jest taka sama jak bez AA, ale przy częstościach przestrzenych blisko rozdzielczości fizycznej mocno spada kontrast. O ile? Trzeba by zmierzyć na przerobionym aparacie, bo nie sądzę żeby Canon publikował takie dane.

piast9
16-08-2006, 11:56
1. Filtr AA jest to filtr elektroniczny. (optyczny jest rzekomo filtr dolnoprzepustowy)
Filtr AA i filtr dolnoprzepustowy (w odniesieniu do dSLR) to jest to samo. Chodzi o wycięcie wysokich częstotliwości w dziedzinie przestrzeni.

Tomasz Urbanowicz
16-08-2006, 12:08
Rozdzielczość bezwzględna jest taka sama jak bez AA, ale przy częstościach przestrzenych blisko rozdzielczości fizycznej mocno spada kontrast. O ile? Trzeba by zmierzyć na przerobionym aparacie, bo nie sądzę żeby Canon publikował takie dane.

Czyli wynika z tego, że maksymalna rozdzielczość będzie przy częstotliwości Nyquista zakładając, że filtr optyczny AA będzie idealny, czyli w 350D dokładnie będzie to 77,84 pixels/mm.



Tu masz wyniki dla paru aparatów: http://www.dpreview.com/reviews/canoneos5d/page22.asp
350D nie ma, ale można wyciągnąć wnioski.


Czyli wynika z tego, że EOS 20D ma zakres F-stop 8,4?

Cyborg
16-08-2006, 12:41
Czyli wynika z tego, że maksymalna rozdzielczość będzie przy częstotliwości Nyquista zakładając, że filtr optyczny AA będzie idealny, czyli w 350D dokładnie będzie to 77,84 pixels/mm.

Po pierwsze nie ma pojęcia "idealnego filtra AA". Filtr AA to kompromis pomiędzy morą, zafarbami krawędzi a rozmyciem obrazu. Pytanie gdzie producent ustawi poprzeczkę. Wystarczy założyć że filtr nie będzie bardzo "skopany".

Po drugie, jak pisałem, to zależy co rozumiemy przez rozdzielczość. Jeżeli gęstość rozmieszczenia różniących się elementów obrazu to nie powinna być ona pogorszona przez AA. Sub-pikselowa zdolość do pozycjonowania elementów obrazu ulegnie pogorszeniu. Ale w kategoriach jakości obrazu pod pojęciem rozdzielczości rozumiemy raczej MTF, a ta ulegnie pogorszeniu.

Po trzecie nie 77,84 pixels/mm tylko ~155,7px/mm. Nie myl gęstości par linii z gęstością pikseli.

Tomasz Urbanowicz
16-08-2006, 12:48
155,7 px/mm to 2 razy częstotliwość Nyquista - więc należy patrzeć IMHO na rozdzielczość Nyqyista - powyżej tej częstotliwości zobaczymy more- aliansing, a w zasadzie chyba nie zobaczymy, bo filtr AA ją "rozmyje" poprzez pogorszenie rozdzielczości optycznej przed matrycą.

Cyborg
16-08-2006, 12:56
155,7 px/mm to 2 razy częstotliwość Nyquista - więc należy patrzeć IMHO na rozdzielczość Nyqyista - powyżej tej częstotliwości zobaczymy more- aliansing, a w zasadzie chyba nie zobaczymy, bo filtr AA ją "rozmyje" poprzez pogorszenie rozdzielczości optycznej przed matrycą.
Przeczytaj jeszcze raz. Częstotliwość Nyqyista to częstotliwość SYGNAŁU, czyli w tym przypadku par linii (jasne-ciemne). Częstotliwość PRÓBKOWANIA, czyli pikseli / mm, o których piszesz musi być 2x większa. Zgodnie ze wzorem.

Edit:
I jeszcze jedno: mora nie bierze się z wysokiej częstotliwości sygnału, tylko z INTERFERENCJI pomiędzy częstotliwością sygnału (np. sztachety płotu :-) ) a próbkowania (piksle).

Tomasz Urbanowicz
16-08-2006, 13:05
Z wyliczeń wychodzi, że maksymalna rozdzielczość matrycy to 155,7 i taka wartość jest 2*częstotliwości Nyqysta. Połowa tej wartości to częstotliwość Nyquista czyli 77,8, czyli IMHO częstotliwość próbkowania jest dwa razy mniejsza od częstotliwości/rozdzielczości 155,7 px/mm. A skoro częstotliwość próbkowania jest w okolicach Nyquista więc powyżej tej częstotliwości powstałby efekt mory - ale nie wystąpi, bo jest filtr AA. Prawda?

Cyborg
16-08-2006, 13:24
Nie prawda.

Próbkownaie to w tym przypadku odczyt wartości piksela. Wszystkie piksele są odczytywane a zatem częstotliwość próbkowania = gęstość pikseli.

A teraz wartości.
Pikseli jest ~155.7/mm Najbardziej szczegółowy obraz uzyskamy, gdy co drugi pikcel będzie jasy, a co drugi ciemny. Czyli ~77.8 par linii / mm.
Czyli ~155.7 pikseli / mm pozwala zapisać ~77.8 (par) linii / mm.

Co do mory powtórzę jeszcze raz: to wynik interferencji i wystąpi także przy częstotliwościach poniżej częst. Nyqysta.

Tomasz Urbanowicz
16-08-2006, 13:43
Czyli uważasz że częstotliwość próbkowania jest to częstotliwość 2*częstotliwość Nyquista? Przecież częstotliwość próbkowania powinna być przynajmniej 2 razy mniejsza od częstotliwość nośnej, przy której IMHO mamy 155,7 px/mm.
Muszę sobie to jakoś poukładać... Użycie filtru AA powoduje rozmycie szczegółów, przez co spadnie rozdzielczość matrycy. Pytanie tylko ile?

KuchateK
16-08-2006, 13:57
Bo sygnał z matrycy mamy analogowy.
Wlasnie z takiego "analogowego" sygnalu z matrycy biora sie bzdury o elektrycznych czy programowych filtrach AA w dslr'ach ;)

Ale to taka pulapka dla nieuwaznych :D

Tam nie ma probkowania. Jest dokladnosc wagi napiecia z pixeli wyrazona owymi 12 bitami, ale nie ma probkowania ani w czasie ani w przestrzeni... Gdyby bylo probkowanie bylo by owe 12 bitow na sekunde czy metr.

Cyborg
16-08-2006, 14:03
Czyli uważasz że częstotliwość próbkowania jest to częstotliwość 2*częstotliwość Nyquista? Przecież częstotliwość próbkowania powinna być przynajmniej 2 razy mniejsza od częstotliwość nośnej, przy której IMHO mamy 155,7 px/mm.

To jest właśnie treść wzoru na częst. Nyquista.
"Nośnej"? Nośną są przecież póbki. Próbka = jasność (wartość) piksla...

Zresztą nie trzeba tutaj poszukiwać jakichś wielkich teorii na sieci (np. cytowany przez Ciebie Nyquist). Wszystko można wykapować na tzw. chłopski rozum. Ewentualnie z pomocą kratkowanej kartki papieru.


Użycie filtru AA powoduje rozmycie szczegółów, przez co spadnie rozdzielczość matrycy. Pytanie tylko ile?
:???:
No to wracamy do punktu wyjścia :-( Zobacz post #8

Jest jeszcze jedna kwestia tutaj nie poruszana: interpretacja danych z matrycy Bayera. Wynikowe piksle są skutkiem interpolacji kolorów i to też wpływa negatywnie na rozdzielczość.

Tomasz Urbanowicz
16-08-2006, 14:09
Tam nie ma probkowania. Jest dokladnosc wagi napiecia z pixeli wyrazona owymi 12 bitami, ale nie ma probkowania ani w czasie ani w przestrzeni... Gdyby bylo probkowanie bylo by owe 12 bitow na sekunde czy metr.

To skąd się bierze pojęcie częstotliwość próbkowania, częstotliwość Nyquist'a?
Zapoczątkowałem wątek na grupie dyskusyjnej:
http://groups.google.pl/group/pl.rec.foto.cyfrowa/browse_thread/thread/1f0a1ee403d8940c/a5a8d6a54416a5db?lnk=st&q=Filtr+AA+-+niejasno%C5%9Bci+%2B+filtr+IR&rnum=1#a5a8d6a54416a5db

Przyznam, że coraz bardziej zaczynam mieć mętlik w głowie :|

Cyborg
16-08-2006, 14:23
Wlasnie z takiego "analogowego" sygnalu z matrycy biora sie bzdury o elektrycznych czy programowych filtrach AA w dslr'ach ;)

Ale to taka pulapka dla nieuwaznych :D

Tam nie ma probkowania. Jest dokladnosc wagi napiecia z pixeli wyrazona owymi 12 bitami, ale nie ma probkowania ani w czasie ani w przestrzeni... Gdyby bylo probkowanie bylo by owe 12 bitow na sekunde czy metr.
Kuchatek, z całym szacunkiem dla Twojej wiedzy, ale tutaj totalnie zamieszałeś.
1. Sygnał z samej matrycy jest ANALOGOWY. Trafia on następnie na przetwornik A/D. Przetwornik(i) może być umieszczony na strukturze matrycy lub w chipsecie aparatu.
2. Filtr AA w postaci programowej występuje w DSLrach Kodaka.
3. Próbkowanie w przestrzeni występuje - wymuszone jest przez samą budowę matrycy (piksele).
4. 12 bitów nie dotyczy próbkowania tylko kwantyzacji próbek.
5. 12bit/próbkę można też przeliczyć na kategorię przestrzeną ("na metr" jak napisałeś) - otrzymujemy precyzje zapisu albo na czas ("na sekundę") - otrzymujemy wielkość strumienia danych które przetwarza DIGIC.

Tomasz Urbanowicz
16-08-2006, 14:34
@Cyborg:

Zdaję sobie sprawę, że masz niezłą wiedzę na ten tamat. Wyjaśnij mi tak na chłopski rozum działanie filtra AA i efekt mory zniwelowany tym filtrem na przykładzie rozdzielczości matrycy 350D.

Z góry dziękuję i proszę o cierpliowość :)

Cyborg
16-08-2006, 15:17
@Cyborg:

Zdaję sobie sprawę, że masz niezłą wiedzę na ten tamat. Wyjaśnij mi tak na chłopski rozum działanie filtra AA i efekt mory zniwelowany tym filtrem na przykładzie rozdzielczości matrycy 350D.

Z góry dziękuję i proszę o cierpliowość :)
E tam wiedzę. Zastanawiałem się kiedyś jak to wszystko musi działać i doszedłem do następujących wniosków:

Jak nie ma filtra AA to są następujące problemy:
1. Mora. Jak w obrazie trafimy na coś, co ma wyraźną, równomierną częstotliwość przestrzenną (np. ogrodzenie, wzór tkaniny, itp.) i ta częstotliwość jest zbliżona do częstotliwości próbkowania (lub jej całkowitej wielokrotności / podziałowi) następuje interferencja. Jak działa interferencja opisano w wielu miejscach. W każdym razie co któryś piksel następuje wzmocnienie sygnału i są widoczne prążki - mora.
2. Zafarb na krawędziach (dotyczy tylko matryc z filtrem Bayera). Jak w obrazie występuje wyraźna granica między jasnym a ciemnym, to jasne piksele na tej granicy trafiają np. na linię pikseli niebieskich, a sąsiednia linia pikseli czerwonych tonie już w ciemnościach. W takiej sytuacji, po interpolacji danych z matrycy w wynikowej bitmapie uzyskujemy krawędź w kolorze niebieskim. Jest to szczególnie widoczne, gdy krawędź jest dokładnie pozioma/pionowa.

Takie wady były widoczne w pierwszych aparatach cyfrowych i pamiętam jak dziennikarze się nad tym pastwili.
Rozwiązaniem jest odpowiednie uśrednienie obrazu tak, aby obraz z jednego punktu trafiał też na sąsiednie (grupy) pikseli. Wtedy częstotliwość próbkowania jakby się rozmywa i zjawisko interferencji występuje w dużo mniejszym stopniu. Jakby co, mogę porobić jakieś poglądowe rysunki / tabelki w wolnej chwili (kiedy to będzie? :? ).
Wydawało by się, że takie uśrednianie można wykonać w postprocesingu poprzez odpowiednią modyfikację algorytmu uśredniania kolorów (brać średnią z większego otoczenia). I tym tropem poszedł Kodak. Niestety efekt końcowy jest daleki od ideału. Przykłady można zobaczyć w sieci. Zaletą takiego rozwiązania jest jednak to, że cały filtr AA można by w takim przypadku wyłączyć nie tracąc ostrości obrazu, bo efekt mory występuje tylko na niewielkiej ilości zdjęć (musi się trafić odpowiedni temat).
Inną drogą jest zastosowanie optycznego filtra, który trochę rozmywa obraz przed samą matrycą. Tą drogą poszła reszta producentów. W różnych markach, a nawet w różnych modelach aparatów próg działania filtra jest różnie ustawiony. Stad mówi się o słabszych lub mocniejszych filtrach AA. Efekt końcowy przy typowych zdjęciach jest niezły (co widać), ale wada tego rozwiązania jest taka, że nie da się tego wyłączyć, a jak pisałem, filtr AA przydaje się tylko w niektórych miejscach niektórych kadrów.

KuchateK
16-08-2006, 16:15
Kuchatek, z całym szacunkiem dla Twojej wiedzy, ale tutaj totalnie zamieszałeś.
1. Sygnał z samej matrycy jest ANALOGOWY. Trafia on następnie na przetwornik A/D. Przetwornik(i) może być umieszczony na strukturze matrycy lub w chipsecie aparatu.
Rozpatrujac pixele pojedynczo tak, mozna to uznac za analogowy i teoretycznie to jest przetwornik A/D.

Ale bedac dokladniejszym niestety tak nie jest. Wyjdz z definicji sygnalu czy przetwornika i zobaczysz ;)

Do pelnowartosciowego przetwornika oprocz rozdzielczosci w bitach powinien miec tez rozdzielczosc wyrazona czasem albo przestrzenia. Ten przetwornik tego drugiego parametru nie posiada i sygnal ktory mierzy nie jest uzalezniony od czasu ani przestrzeni.

Tak naprawde prawdziwym przetwornikiem analogowo cyfrowym zamieniajacym sygnal analogowy na cyfrowy moze byc dopiero zespol zlozony z matrycy i tego przetwornika a/d.

Ale druga czesc w sumie jest zbedna. Nadal podciagajac to pod definicje sygnalu cyfrowego nie ma znaczenia, ze nasz obraz cyfrowy zapisany jest w postaci elektronow zlapanych przez komorki na matrycy, w postaci szerego cyfr na kartce czy nieco dalej w pamieci.


3. Próbkowanie w przestrzeni występuje - wymuszone jest przez samą budowę matrycy (piksele).
Sam mi przyznajesz racje. To matryca dokonuje probkowania i to ona jest przetwornikiem.

To ze ona nie zapisuje sygnalu bezposrednio do pamieci a korzysta z dodatkowego duperela liczacego elektrony aby zapisac je jako liczby do pamieci dla digica nie ma znaczenia. Sygnal poza pixelami z matrycy jest juz cyfrowy, choc zapisany analogowo elektronami.

Czy jak zapisze na wielkiej karce szereg wartosci rgb w kratkach to zrobi to mi z obrazu obraz analogowy i ciagly? Niestety nie.

Tak samo wysylajac te liczby komus swiatlowodem nie zmienia tych danych na postac analogowa i nie niweluje cyfrowosci, mimo ze po drodze moze byc wiele przetwornikow zamieniajacych to na analogowe swiatlo, napiecie i znow na liczby gdzies w pamieci.

Ja wiem ze elektrykom i elektronikom to ciezko zrozumiec, bo dla nich napiecie to analog, ale niestety w tym przypadku to nie jest do konca prawda. Nie operujemy tu na napieciach a na obrazie.


4. 12 bitów nie dotyczy próbkowania tylko kwantyzacji próbek.
5. 12bit/próbkę można też przeliczyć na kategorię przestrzeną ("na metr" jak napisałeś) - otrzymujemy precyzje zapisu albo na czas ("na sekundę") - otrzymujemy wielkość strumienia danych które przetwarza DIGIC.[/QUOTE]
Zgoda, ale do pelnego zapisu na metr (skoro o obrazie) oprocz kwantyzacji dokonanej przez "to cos a/d" potrzeba tez drugiej czesci okreslajacej rozdzielczosc (probkowanie), czyli matrycy.

Calosc wyglada tak ze matryca dokonuje probkowania a przetwornik a/d kwantyzacji.

Ale mowiac ogolnie o samym obrazie jako calosci to matryca jest przetwornikiem. Choc zapisuje wartosc analogowo elektronami to jednak mimo wszystko ona dokonuje digitalizacji. Wszystko dalej to juz pixele. Choc mamy to bez dokonanej kwantyzacji zapisane analogowo to jednak sa to cyfrowe pixele.

Aliasing jesli mogl to juz wystapil i nic z tym nie da sie obecnie za bardzo zrobic.


2. Filtr AA w postaci programowej występuje w DSLrach Kodaka.
To byla biedna namiastka i ratowanie badziewia czym sie dalo (podobnie jak szumy latane odszumiarkami w puszkach nikona). W praktyce nie dzialal wogole a ilosc artefaktow byla masakryczna.

Aliasing na obrazie wystapi przy podziale go na pixele. To co potem bedziesz dlubac z elektronami czy cyferkami w pamieci juz niestety wiele nie pomoze. Jeszcze nie bylo takiego magika ktoremu sie udalo.

Kodak sprzedawal do tych matryc prawdziwy optyczny filtr AA za jakies 1000 dolcow :D

KuchateK
16-08-2006, 16:19
2. Zafarb na krawędziach (dotyczy tylko matryc z filtrem Bayera). Jak w obrazie występuje wyraźna granica między jasnym a ciemnym, to jasne piksele na tej granicy trafiają np. na linię pikseli niebieskich, a sąsiednia linia pikseli czerwonych tonie już w ciemnościach. W takiej sytuacji, po interpolacji danych z matrycy w wynikowej bitmapie uzyskujemy krawędź w kolorze niebieskim. Jest to szczególnie widoczne, gdy krawędź jest dokładnie pozioma/pionowa.
Bayery maja pixele ulozone w kratke, wiec jak niby chcesz trafic na linie pixeli niebieskich? To o czym piszesz moglo by byc problemem przy najgorszym mozliwym algorytmie interpolacji. Przy czyms nieco bardziej zaawansowanym jak "nearest neighbor" ma minimalne szanse wystapic.


https://canon-board.info//brak.gif
źródło (http://www.dpreview.com/reviews/canoneos5d/Images/ccd-d2x.gif)

Tomasz Urbanowicz
16-08-2006, 17:00
NO właśnie. Zostałem zmylony przez słowo częstotliwość. Częstotliwość jest to wielkość w stosunku do czasu. Kwantyzacja nie zależy od częstotliwości ale od ustalonych progów kwantyzacji. Zastanawia mnie fakt użycia słowa częstotliwość próbkowania - w kwantyzacji takiego tworu nie ma. Podobnie jak czestotliwość Nyquista - co to za częstotliwość?

KuchateK
16-08-2006, 17:02
Czestotliwosc przy sygnalach moze byc tez polozeniem w przestrzeni, nie tylko czasem. Obrabiajac obraz obrabiamy "cos gdzies", pixele na dwuwymiarowej plaszczyznie. Nasza czestotliwosc to rozdzielczosc umieszczenia tych pixeli.

Dalsza kwantyzacja tymi 12 bitami to juz lepszy albo gorszy sygnal cyfrowy :)

Cyborg
16-08-2006, 17:07
Rozpatrujac pixele pojedynczo tak, mozna to uznac za analogowy i teoretycznie to jest przetwornik A/D.
Ale bedac dokladniejszym niestety tak nie jest. Wyjdz z definicji sygnalu czy przetwornika i zobaczysz ;)...
No więc dobrze. Jeżeli chcesz przejść na formalny język definicji OK.
1. Matryca dokonuje dyskretyzacji przestrzennej obrazu.
2. Następnie następuje zmiana dziedziny dyskretyzacji z przestrzeni na czas, bo przetworników A/D jest (znacząco :-) ) mniej niż pikseli.
3. Następuje kwantyzacja sygnału w przetworniku A/D.

Etapy 1 i 3 są niezbędne w procesie zamiany obrazu na dyskretną postać cyfrową. Etap 2 jest potrzebny ze względów technicznych.

Sygnał po procesie 1 ma postać analogową zdyskretyzowaną, po procesie 3 cyfrową zdyskretyzowaną.

A co do Twojej interesującej tezy, że "druga część jest w sumie zbędna" to przypomnij sobie zasadę działania telewizora CRT albo analogowej kamery wideo. Tam też był sygnał zdyskretyzowany (w 1 kierunku) i nikt nie mówił o cyfrowości.

Nie wiem tylko po co ten przytyk do "elektroników"? Zawodowo jestem bardziej zbliżony do przetwarzania obrazów niż do elektroniki :-)

Tomasz Urbanowicz
16-08-2006, 17:08
@Kuchatek:

Encyklopedia podaje:

Częstotliwość określa liczbę cykli zjawiska okresowego występujących w jednostce czasu.

A to o czym piszesz, to najbliżej pasuje do rozdzielczości niż częstotliwości.

KuchateK
16-08-2006, 17:11
Cytujac angielskie zrodla (http://www.reference.com/browse/wiki/Signal_(information_theory)):

a signal is a flow of information. Most signals of interest can be modeled as functions of time or position
Sygnal to przeplyw (potok) informacji. Wiekszosc sygnalow moze byc zaprezentowana w postaci funkcji w czasie albo polozeniu (w przestrzeni).

Fakt, mowimy o czestotliwosci nyquista, ale w przypadku obrazow jednostka tej czestotliwosci bedzie rozdzielczosc.

W obrobce sygnalow obraz i przestrzen to ulamek calego zagadnienia obejmujacego glownie elektryke i sinusy w czasie ;), dlatego wiekszosc pojec wydaje sie do tego nie pasowac.

A o czestotliwosci jest tam (http://www.reference.com/browse/wiki/Frequency):

Frequency is the measurement of the number of times that a repeated event occurs[...]
Czestotliwosc to miara ilosci razy wystapienia powtarzajacego sie zdarzenia[...]

Jesli olac dalsza czesc zdania mowiaca o czasie (jak zwykle :D) to nasze pixele na metr tez sa czestotliwoscia. W koncu oprocz czasu (ktorego nawet nie potrafimy kontrolowac) glownym naszym wymiarem jakim sie poslugujemy na codzien jest przestrzen.

Tomasz Urbanowicz
16-08-2006, 17:16
Spróbuj uściślić moje rozumowanie:

1. Mamy matrycę 12-sto bitową. Znaczy to, że mamy 4096 progi kwantyzacji - innymi słowy, nasz pixel może się zmieniać od 0 do 4096 bitów.
2. Mamy rozdzielczość matrycy - w tym przypadku wynosi ok. 155 px/mm.
3. Mamy "częstotliwość" Nyquista - ok. 77 px/mm - co ona oznacza i o czym mówi?
4. Nie mamy nic o czasie.
5. Przy jakiej "częstotliwości" Nyquista (czy na jaką "częstotliwość" Nyquista) budowany jest filtr dolnoprzepustowy AA?

EDYCJA:
* Spróbuję

Cyborg
16-08-2006, 17:16
Encyklopedia podaje:

Częstotliwość określa liczbę cykli zjawiska okresowego występujących w jednostce czasu.

Tutaj słuchaj Kuchataka. Autorzy tej "encykopedi" są mocno ograniczeni :smile:

Tomasz Urbanowicz
16-08-2006, 17:22
Nie kwestionuje wiedzy Kuchatka, żeby nie było :)

Cyborg
16-08-2006, 17:23
4. Nie mamy nic o czasie.
No bo robisz "still image" a nie "moving picture". Dlatego nie ma nic o czasie. :grin:
Ale w definicji Nyquista trzeba przejść z dziedziny czasu na przestrzeń i jest OK.

Tomasz Urbanowicz
16-08-2006, 17:25
Ano - już powoli wychodzę z koleiny w którą wpadłem :) Zakodowane miałem od wieków, że częstotliwość związana jest stricte z czasem.

KuchateK
16-08-2006, 17:31
2. Następnie następuje zmiana dziedziny dyskretyzacji z przestrzeni na czas, bo przetworników A/D jest (znacząco :-) ) mniej niż pikseli.
Czas? Gdzie?

To ze przetwornik pracuje tak szybko ma jakies znaczenie jesli chodzi o cierpliwosc uzytkownika ;), ale liczac efekt w postaci obrazu dalej w pamieci nie ma kompletnie znaczenia. W audio by mial. Ale nie przy obrazach nieruchomych uniezaleznionych po zlapaniu od czasu. Jak wstawimy 4 przetworniki i zrobimy to 4x szybciej jak jednym nie zmieni nic w pamieci za calym duetem matryca i przetwornik(i) a/d.


Nie kwestionuje wiedzy Kuchatka, żeby nie było :)
Gdybys kwestionowal encyklopedie to jeszcze mozna sie czepiac, ale kwestionowanie mnie jest w sumie nawet wskazane :mrgreen:

Tomasz Urbanowicz
16-08-2006, 17:36
No to może podsumujemy oszacowaniem - na jaką częstotliwość Nyquista budowany jest filtr dolnoprzepustowy? (przepraszam, że się powtarzam).

KuchateK
16-08-2006, 17:39
Tutaj matematyka i teoria moze byc nieco oderwana od praktyki. Wiadomo, ze ma byc iles, ale praktycznie bywa roznie.

Podobne matryce (takie same nawet) miewaja filtry o bardzo roznej sile dzialania. Kodak jest przykladem, ze mozna sie calkiem niezle w wiekszosci sytuacji obejsc i bez filtra. Inne przyklady to D70 i D50 czy 1ds i 5D.

Zdaje sie ze u Korena cos jest na temat nyquistow i aliasingu wyrazone liczbami i wzorami, ale nie chce mi sie juz tego czytac :D
http://www.normankoren.com/Tutorials/MTF2.html

Tomasz Urbanowicz
16-08-2006, 17:43
Ale spróbujmy założyć czysto teoretycznie - pal licho na razie praktykę.
Zakładamy też, że filtr jest idealny tzn. ma max pionowe zbocze. Jaka to może być częstotliwość w odniesieniu do Nyquista?

Czyli wychodzi na to, że powyżej częstotliwości Nyquista występuje aliasing:

Signal energy above fN is aliased— it appears as artificial low frequency signals in repetitive patterns, typically visible as Moiré patterns. In non-repetitive patterns aliasing appears as jagged diagonal lines— "the jaggies."

EDYCJA:
The sensor responds to signals above Nyquist— MTF is nonzero, but because of aliasing, it is not good response.

Many digital camera sensors have anti-aliasing or low-pass filters (the same thing) to reduce response above Nyquist. Anti-aliasing filters blur the image slightly; they reduce resolution. Kodak publishes MTF curves for a low cost anti-aliasing filter. Sharp cutoff filters don't exist in optics as they do in electronics, so some residual aliasing remains. Lens MTF losses also reduce aliasing. Analog reconstruction is not shown.

Dziękuję Kuchatek za linka :)

KuchateK
16-08-2006, 17:58
Tak. Efekt jest zalezny od tego ile przekroczysz nyquista. Tutaj juz bez rysunkow i wykresow sie nie obejdzie. Dla 3/2 (1,5x) nyquista jest przyklad rysunkowy u korena jak to dziala.

Dla kodaka granica bylo 63 lp/mm. Jako ze tam pixele byly wieksze, to u Ciebie bedzie to 77px/mm.

Generalnie jest to polowa rozdzielczosci sensora na mm. Rozdzielczosc obiektywow jest okreslana w parach linii na milimetr, wiec latwo porownac czy dany duet (matryca i obiektyw) bedzie generowal artefakty.

Tomasz Urbanowicz
16-08-2006, 18:04
No, ale skoro zastosowano filtr AA muszę "martwić się" o artefakty kupując super ostre szkło?

KuchateK
16-08-2006, 18:06
Canon nie ma chyba w zadnej puszce problemow z artefaktami spowodowanymi aliasingiem.

Tomasz Urbanowicz
16-08-2006, 18:09
Dziękuję za wyjaśnienie sprawy filtru AA :)

EDYCJA:
OT:
Czy filtr IR stosowany jest we wszystkich aparatach? Czytałem artykuł o zdjęciach z filtrem podczerwonym (przepuszczającym pasmo podczerwone) i chyba nic nie wtrącili, że jest problem z filtrem IR który jest nad matrycą.

piast9
16-08-2006, 18:37
Czas? Gdzie?
Przy ściąganiu danych z matrycy. W CCD przetwornik(i) A/D przetwarzają napięcie na końcu kanału pomp ładunkowych na dane. A napięcie to zmienia się w czasie podczas przesuwania ładunków przez pompę. W CMOS też mamy zmienne w czasie napięcie, tyle że związane z matrycowym wybieraniem i podłączaniem się do kolejnych pixeli w rządku.

Ale to i tak jest mieszanie niepotrzebne. Dyskretyzację w przestrzeni zapewnia matryca przez swoją pixelową konstrukcję. I to wymaga stosowania antyaliasingu. To, w jaki sposob sygnał z poszczególnych pixeli zostanie zebrany nie ma tu znaczenia.

KuchateK
16-08-2006, 18:40
Obecnie we wszystkich. Z komorkami na czele :D

Wymuszone to zostalo afera z sony w Japonii, ktore za dobrze radzilo sobie w generowaniu zdjec we wspolpracy z takimi filtrami:
http://www.kaya-optics.com/products/applications.shtml

Filtr IR co prawda nie eliminuje zjawiska calkowicie i nadal sie da cos zdzialac, ale czasy rosna znacznie, co powoduje niemozliwosc krecenia filmow nieprzerobiona kamera, robienie zdjec z reki albo obiektom w ruchu.


Ale to i tak jest mieszanie niepotrzebne.
Otoz to. To nie dzwiek gdzie liczymy napiecie zmieniajace sie w czasie. Proces co prawda odbywa sie w jakims skonczonym czasie, ale jest od tego czasu niezalezny dla efektu jaki zostanie wygenerowany. Czas nie wplywa na informacje.

Cyborg
16-08-2006, 23:49
Bayery maja pixele ulozone w kratke, wiec jak niby chcesz trafic na linie pixeli niebieskich? To o czym piszesz moglo by byc problemem przy najgorszym mozliwym algorytmie interpolacji. Przy czyms nieco bardziej zaawansowanym jak "nearest neighbor" ma minimalne szanse wystapic.


https://canon-board.info//brak.gif
źródło (http://www.dpreview.com/reviews/canoneos5d/Images/ccd-d2x.gif)
A no tak:

https://canon-board.info/imgimported/2006/08/ccd1-2.gif
źródło (http://www.wmgalicja.krakow.pl/~cyborg/img/ccd1.gif)
albo tak:

https://canon-board.info/imgimported/2006/08/ccd2-2.gif
źródło (http://www.wmgalicja.krakow.pl/~cyborg/img/ccd2.gif)
O tym, że problem jednak występuje można się przekonać oglądając zdjęcia z Kodaka.

KuchateK
17-08-2006, 00:03
Tak. A teraz wez do tego obrazka podciagnij jakis przyzwoity algorytm demozajkowania i zobacz co powstanie.

Tutaj masz pare przykladow z roznego softu do obrabiania rawow na motywie generujacym takie sytuacje.
http://www.dpreview.com/reviews/canoneos1dsmkii/page18.asp

Problem w kodakach zwiazany byl glownie z mora na drobnych detalach a nie rzedami pixeli. To o czym piszesz powyzej jest swietnie eliminowane przez dobre algorytmy przy konwersji rawa usredniajace grupy pixeli. No i filtr AA, jesli sie go ma ;)

slawi_3000
17-08-2006, 00:42
Super, Panowie, gratuluję. Szkoda, że nie rozpisaliście się więcej o zaleznościach częstotliwość/przestrzeń, nic o np. faza/przestrzeń, nic o Fourrierze:grin: . Ale tu pewnie dużo kodowania jest załatwiane hardwarowo. Chociaż, jeżeli rzeczywiście tak mało jest tych przetw. A/D? Fascynujące.

KuchateK
17-08-2006, 04:19
Obecne dslr'y canona maja srednio od 2 (350D) poprzez 4 (20D, 5D) do 8 rownoleglych kanalowm (1d/1ds) sciagajacych dane z matrycy, a co za tym idzie oddzielnych przetwornikow a/d.

A fourier to juz calkiem inna historia...

Kolekcjoner
18-08-2006, 02:44
(...)Takie wady były widoczne w pierwszych aparatach cyfrowych i pamiętam jak dziennikarze się nad tym pastwili.
Rozwiązaniem jest odpowiednie uśrednienie obrazu tak, aby obraz z jednego punktu trafiał też na sąsiednie (grupy) pikseli. Wtedy częstotliwość próbkowania jakby się rozmywa i zjawisko interferencji występuje w dużo mniejszym stopniu. (...)
Ponieważ padło pytanie: cyt.: "6. Zasada działania i budowa (w miarę szczegółowy opis w miarę możliwości)."
To warto uzupełnić, że filtrem AA optycznie jest płat kryształu dwójłomnego.
Opis dwójłomności i dolnprzepustowych filtrów optycznych tutaj (http://pl.wikipedia.org/wiki/Kryształ_dwójłomny) i tutaj (http://pl.wikipedia.org/wiki/Filtr_dolnoprzepustowy).
I tu obrazek.
https://canon-board.info/imgimported/2006/08/Calcite-2.jpg
źródło (http://upload.wikimedia.org/wikipedia/commons/7/7a/Calcite.jpg)

KuchateK
18-08-2006, 04:00
Dzieki za uzupelnienie luki :D Wiedzialem jak to jest robione w praktyce poprzez rozszczepianie, ale nie wiedzialem ze to robia za pomoca krysztalow o wdziecznej nazwie dwojlomnych ;)

Ale do rzeczy:

W Canonach (wiekszosci) sa trzy warstwy tworzace obraz rozszczepiony na 4 czesci. Pierwsza rozszczepia na dwa poziome, druga na dwa pionowe. Dostajemy cztery obrazy z przesunieciem dopasowanym do odleglosci pixeli na matrycy. Trzecia srodkowa warstwa pomiedzy tymi dwoma zamienia polaryzacje liniowa z pierwszego krysztalu na polaryzacje kolowa dla drugiego.

Do tego jeszcze jedna warstwa odbijajaca podczerwien, druga pochlaniajaca, jakies powloki i mamy cala kanapke szkielek na matryce zwanych filtrem AA.

Tomasz Urbanowicz
18-08-2006, 07:19
Trzecia srodkowa warstwa pomiedzy tymi dwoma zamienia polaryzacje liniowa z pierwszego krysztalu na polaryzacje kolowa dla drugiego.

Co na celu ma zamiana polaryzacji z liniowej na kołową?

OT:
Dlaczego w cyfrówkach stosowane są filtry polaryzacyjne kołowe, w analogach liniowe? Jakie są różnice w budowie i działaniu? Jaki to ma związek z działaniem AF, pomiar ekspozycji itp? Dlaczego w filtrze pol. mamy dwie płytki - czy nie wystarczy jedna (która odbija lub pochłania światło spolaryzowane/niespolaryzowane) którą będziemy kręcić?

EDYCJA:
W Wikipedii można przeczytać:

Przypadek po lewej, to polaryzacja liniowa, drganie odbywa się wzdłuż linii prostej. Każde drganie można przedstawić jako sumę drgań wzdłuż osi X i Y. W przypadku polaryzacji liniowej drgania składowe są w fazie lub w przeciwfazie (180°). Stosunek amplitud drgań składowych określa kierunek drgania a tym samym i polaryzację. Brak jednej ze składowych odpowiada polaryzacji wzdłuż osi. W polaryzacji liniowej przemieszczenie (natężenie pola elektrycznego) punktu w każdym cyklu przechodzi dwa razy przez zero.

Przypadek środkowy ilustruje polaryzację kołową. Drganie to odpowiada ruchowi po okręgu. Można je rozłożyć na dwa drgania o jednakowych amplitudach ale o fazach przesuniętych dokładnie o 90° lub 270° (-90°). W zależności do tego, czy fazy są przesunięte o 90° czy 270°, mówi się o polaryzacji kołowej prawoskrętnej lub polaryzacji kołowej lewoskrętnej. Wynika to z faktu, że wektor wychylenia może obracać się albo w lewo albo w prawo. W polaryzacji kołowej przemieszczenie (natężenie pola elektrycznego) ma zawsze taką samą wartość, zmienia się tylko kierunek przemieszczenia.

Niebardzo mogę sobie to wyobrazić. Wyczytałem w sieci, że polaryzacja liniowa może wprowadzać w bład układ pomiaru światła, AF gdzie wykorzystuje się układ lustra półprzeźroczystego - dlaczego polaryzacja kołowa nie wprowadza w błąd? Można więc zrozumieć użycie polaryzatora kołowego przed układem pomiarowym, ale dlaczego więc w układzie filtra AA mamy tą zamianę na polaryzację kołową?

Cyborg
18-08-2006, 11:06
Swiatło spolaryzowane kołowo to takie w którym płaszczyzna polaryzacji kręci się (dość szybko :-) ) i żaden kierunek polaryzacji w dostatecznie długim okresie czasu nie jest wyróżniony i światło dla automatyki aparatu i filtra AA ma cechy światła nie spolaryzowanego.

Polaryzatory kołowe stosowane w fotografii skłądają się z płytki polaryzatora liniowego i obracacza fazy sklejonych razem. Kręci się całym kompletem.

Kołowe filtry polaryzacyjne stosuje się także w lustrzankach analogowych.

Cyborg
18-08-2006, 11:17
W piatce wymyslili, ze mozna prosciej i taniej :D Trzy krysztaly z 20'stek czy 350'tek zastapiono jednym. Prawdopodobnie rozszczepiaja po ukosie ;)
"The anti-aliasing filter, which also functions as the
CMOS sensor package’s cover glass, consists of an
infrared-blocking filter, a primary low-pass filter, a
phase plate and a secondary low-pass filter. While
other cameras, such as the EOS 20D camera, have
three crystal plates, the EOS 5D model’s filter has one
independent crystal plate doing double duty as the
cover glass. This reduces cost without affecting the
filter’s performance."
To jest cytat z 5D White Paper. Tam jest też rysunek, jak to jest złożone Zmiana jest tylko technologiczna z zachowaniem tej samej zasady działania.

Tomasz Urbanowicz
18-08-2006, 12:05
Swiatło spolaryzowane kołowo to takie w którym płaszczyzna polaryzacji kręci się (dość szybko :-) ) i żaden kierunek polaryzacji w dostatecznie długim okresie czasu nie jest wyróżniony i światło dla automatyki aparatu i filtra AA ma cechy światła nie spolaryzowanego.


Ale jest przypadek, gdzie na wyjściu z filtra polaryzacyjnego kołowego otrzymamy liniową polaryzację - gdy na filtr pol. koł. padnie światło spolaryzowane kołowo :)

Cyborg
18-08-2006, 13:04
Tak. Taki numer stosuje Polaroid w swoich filtrach na monitory.

Tomasz Urbanowicz
18-08-2006, 13:06
A możesz wyjaśnić celowość takiego działania?

Cyborg
18-08-2006, 13:18
Tak w skrócie:
To jest zrobione tak samo, jak fotograficzny filtr polaryzacyjny kołowy.
Światło zewnętrzne jest polaryzowane liniowo, następnie kołowo, takie trafia na szybę monitora i odbija się przy czym odwraca się kierunek polaryzacji "z lewej w prawą". Odbite światło trafia spowrotem na obracacz fazy, który robi z niego spowrotem spolaryzowane liniowo, ale z płaszczyczną obróconą o 90* w stosunku do tego na początku. Takie światło wygasza wspomniany zewnętrzny polaryzator liniowy.
Szczegóły znajdziesz w materiałach reklamowych Polaroida.

KuchateK
18-08-2006, 13:44
To jest cytat z 5D White Paper. Tam jest też rysunek, jak to jest złożone Zmiana jest tylko technologiczna z zachowaniem tej samej zasady działania.
Ups. Moj blad :D

Jest inaczej, ale nie z zastapieniem trzech krysztalow jednym a z zastapieniem szkla nakrywajacego matryce jednym z krysztalow.

Bagnet007
30-11-2006, 09:48
Dla niedowiarków że to jednak kawałek szybki przed CMOS'em :wink:
http://www.usa.canon.com/consumer/controller?act=CanonAdvantageTopicDtlAct&fcategoryid=111&id=2636

Kolekcjoner
30-11-2006, 17:36
To jeszcze ja dodam - był ten temat już dość mocno wałkowany :) w tym wątku:
http://canon-board.info/showthread.php?p=204471#post204471

Optycznie filtrem AA jest płat kryształu dwójłomnego.
Opis dwójłomności i dolnoprzepustowych filtrów optycznych tutaj (http://pl.wikipedia.org/wiki/Kryształ_dwójłomny) i tutaj (http://pl.wikipedia.org/wiki/Filtr_dolnoprzepustowy).
I tu obrazek.
https://canon-board.info/imgimported/2006/08/Calcite-1.jpg
źródło (http://upload.wikimedia.org/wikipedia/commons/7/7a/Calcite.jpg)

Vitez
01-12-2006, 01:24
To jeszcze ja dodam - był ten temat już dość mocno wałkowany :) w tym wątku:
http://canon-board.info/showthread.php?p=204471#post204471


A porownales daty postow? Ten watek pochodzi z 2005 roku, ten ktory ty podales z 2006 roku.
Zeby dalej nie mieszac - lacze.