Strona 4 z 11 PierwszyPierwszy ... 23456 ... OstatniOstatni
Pokaż wyniki od 31 do 40 z 103

Wątek: Filtr AA

  1. #31
    Uzależniony
    Dołączył
    Jul 2005
    Wiek
    52
    Posty
    503

    Domyślnie

    Blooming zawsze moze wystapic, zalezy na co skierujesz obiektyw... Nie napisalem ze mikrosoczewki sa "jedynym sprawca" bloomingu, lecz ze sa jego "glownym sprawca", co chyba wyraznie widac w mojej wypowiedzi.
    Czarna puszka i gruszka... www.andee.nwz.pl

  2. #32

    Domyślnie

    Cytat Zamieszczone przez Jurek Plieth
    Dlaczego kojarzysz to z filtrem dolnoprzepustowym? Gdzie widzisz tą "dolnoprzepustowość"?

    bo filtrem dolnoprzepustowym nie jest tylko cewka wpieta w szereg, z glosnikiem
    czy prosty warunek jesli i<100 .. bla bla bla

    tak samo filtrem gornoprzepustowym nie moznabyloby okreslic sitka ...
    a niewatpliwie nim jest.

    dlatego mozna nazwac filtrem dolnoprzepustowym element optyczny.

  3. #33

    Domyślnie

    ah jeszcze odnosnie tego dlaczego soczewki moga byc filtrem AA

    nie chcialo mi sie rysowac wiec tu jest link do rysunku http://www.siggraph.org/education/ma...ages/34_93.gif

    jesli sensor bedzie wielkosci tych malych kropeczek, malo prawdopodobne jest ze przybierze wartosc rozna od czarnej badz pomranczowej ....
    ale wyobrazmy sobie ze te punkciki beda o srednicy nie 1 pix tylko 10pix

    czy wtedy obraz po prawej bedzie nadal taki sam ??

  4. #34
    Dopiero zaczyna Awatar JasiuB
    Dołączył
    Oct 2005
    Posty
    18

    Domyślnie

    Czołem.

    Cytat Zamieszczone przez Jurek Plieth
    Dlaczego kojarzysz to z filtrem dolnoprzepustowym? Gdzie widzisz tą "dolnoprzepustowość"?
    To JEST filtr dolnoprzepustowy. Jak technicznie jest zrobiony podobny w aparatach możesz poczytać tutaj:
    http://www.newton.dep.anl.gov/askasc...9/eng99312.htm

    Filtrowanie antyaliasingowe musi być zrobione przed przetwarzaniem sygnału na postać dyskretną. Wszelakie software'owe próby poprawiania post factum to proteza, bo tak naprawdę nie ma żadnej metody stwierdzenie co jest rezultatem aliasingu, a co nie. Pomoże oversampling, ale to da się to zrobić tylko przy generacji obrazu o rozdzielczości znacznie mniejszej niż rozdzielczość matrcy.

    Zwróć uwagę (bo zdaje się, że Ci to umnkęło), że przetwarzany jest sygnał obrazu w funkcji położenia, a nie w funkcji czasu. Częstotliwość przetwornika A/D nie ma tu zupełnie nic do rzeczy.

    MUFLON -> Zjawisko aliasingu istnieje przecież "od zawsze"... Natomiast zdano sobie sprawę z jego istnienia gdzieś w latach 20 (w każdym razie na długo przed II W.Ś.). Jest tu ktoś starszy?. Zaś eMILz nie pisał, że w oku będzie aliasing, a podał przykład filtru, przynajmniej takie odniosłem wrażenie.

    Pozdrawiam,
    Jasiu

  5. #35
    Pełne uzależnienie Awatar KuchateK
    Dołączył
    Feb 2005
    Miasto
    USA
    Posty
    4 895

    Domyślnie

    To jeszcze ja... Jak zwykle wyjdzie przydlugie

    Cytat Zamieszczone przez Jurek Plieth
    Moim zdaniem zdecydowanie nie! Uwazam, ze ta sama nazwa bierze sie stad, ze o sprawie pisza ludzie nie majacy o niej zielonego pojecia, nawet na tak madrych portalach jak dpreview itp.
    Niech Ci bedzie... Nie kazdy jest inzynierem Canona i nie kazdy studiowal obrobke sygnalow.

    Cytat Zamieszczone przez Jurek Plieth
    W smutnym efekcie natykamy sie na takie rafy jak okreslenie, ze jakis aparat nie ma filtru antyaliasingowego. Po pierwsze wiec pytam jakiego filtru nie ma? Tego szklanego (optycznego), czy tez tego zwiazanego z obróbka sygnalu (co byloby oczywista bzdura, bo tam musi byc jakis filtr). Po drugie zas co to znaczy, ze nie ma filtru? Dobrze to, czy moze zle? A na dodatek nie ma jednoznacznej na to odpowiedzi. W ten sposób ludziom, którzy maja prawo z racji braku specjalistycznego wyksztalcenia nie miec o tym pojecia, robi sie dodatkowo wode z mózgu

    W ten oto sposób sam sie na ta rzeczona rafe nadziales. Co nie mialoby miejsca, gdybys sie zastanowil jak wyglada widmo czestotliwosciowe swiatla widzialnego i bliskowidzialnego. [...]
    wstawiasz "dolnoprzepustowy filtr optyczny" - cytuje Twoja wypowiedz. Jaki to jest wiec filtr? Na logike, aby byc w zgodzie z Twoim cytatem jest to filtr, który tlumi swiatlo o czestotliwosci wiekszej niz jakas (wszakze jest dolnoprzepustowy). [...]
    ze nie w zakresie widma optycznego Dolnoprzepustowy filtr antyaliasingowy jest bowiem drogi Kuchatku filtrem zwiazanym z obróbka sygnalu, a jego czestotliwosc odciecia ma li tylko zwiazek z czestotliwoscia próbkowania przetwornika A/C, a nie ma zadnego zwiazku z widmem optycznym!
    [...]
    Warto jednakze czasem siegnac do zupelnie podstawowych definicji.
    Strasznie motasz. Bez obrazy, ale uwazam ze to Ty robisz wode z mozgu tutaj nie do konca majac pojecie jak odbywa sie cala obrobka i co tak naprawde obrabiasz. Jestes pewien ze wiesz co jest tak naprawde sygnalem w naszym wypadku i co i jak mozesz filtrowac? Zaraz Ci pokaze gdzie i jak tam "musi byc jakis filtr", gdzie tak naprawde , co i po co filtrujemy i obrabiamy.



    Przesledzmy proces od poczatku w oparciu o proste definicje zgodnie z tym co napisales. Cytujac Wikipedie i tlumaczac to nieco dowolnie (bo tlumacz ze mnie marny):

    a signal is a flow of information. Most signals of interest can be modeled as functions of time or position
    Sygnal to przeplyw (potok) informacji. Wiekszosc sygnalow moze byc zaprezentowana w postaci funkcji w czasie albo polozeniu (w przestrzeni).

    Czyli bezposrednio odnosza sie do czasu albo przestrzeni. Nie wazne co tylko gdzie albo kiedy. To jest dosyc wazne. To nam wyznacza co tak naprawde jest sygnalem.

    The two main types of signals are analog and digital. In short, the difference between them is that digital signals are discrete and quantized, as defined below, while analog signals possess neither property
    Dwa glowne typy sygnalow to analogowe i cyfrowe. W skrocie roznica pomiedzy nimi jest taka, ze sygnaly cyfrowe sa dyskretne (odrebny; oderwany; nieciagly; ziarnisty) oraz okreslone ilosciowo (z gory okreslona ilosc wartosci dyskretnych). Analogowe nie posiadaja zadnej z tych wlasnosci.

    Zwlaszcza polecam nieciaglosc i ziarnistosc jako okreslenie cyfrowosci.

    Generalnie definicje jak zwykle malo zrozumiale

    Przesledzmy co sie dzieje zanim dostaniemy obraz cyfrowy.

    Swiatlo z obiektywu pada na sensor. Na nim ulozone w matryce (siatke) komorki swiatloczole zamieniaja swiatlo proporcjonalnie na elektrony. Nastepnie elektrony sa "liczone" i reprezentowane jako wartosc liczbowa. Zbior tych wartosci liczbowych z calej matrycy daje nam cyfrowy plik w postaci RAW'a. Jego cyfrowosc chyba nie ulega watpliwosci. Jak widac w calym procesie jest kilka zmian wielkosci fizycznych w ktorych efekcie otrzymujemy scisle cyfrowy wynik w postaci plikow RAW na CF"ie.

    Przesledzmy co dzieje sie w poszczegolnych krokach.

    Zamiana analogowego ladunku elektrycznego (elektronow) z piksela na wartosc liczbowa. Zgodnie z definicja jest to konwerter analogowo cyfrowy. Ale czy tak naprawde mozemy mowic o sygnale?

    Zdecydowanie calosc obrabianej informacji jest oderwana od czasu. Nie ma znaczenia czy konwertujemy piksel na godzine czy 69 milionow na sekunde (1dsmkII). Calosc informacji oderwana jest tez dosyc znacznie od przestrzeni. Nie ma znacznenia czy bedziemy przetwarzac piksele z matrycy po kolei czy losowo, w pionie, poziomie, pojedynczo czy po osiem na raz. Zawsze otrzymamy ta sama wartosc dla kazdego z nich.

    Przetwornik elektronow w aparacie cyfrowym nie ma zadnego zwiazku z czasem i przestrzenia. Operujac na pikselu caly proces nie odnosi sie do niczego. Na wejsciu mamy jedna wielkosc oderwana od innych, na wyjsciu inna proporcjonalna do wejscia. Tak samo jest z zamiana fotonow na elektrony. Calosc odbywajaca sie na poziomie piksela jest oderwana od calej reszty obok oraz niezalezna od czasu.

    Wyjdzmy jeszcze raz z definicji sygnalu i skorzystajmy z analogii...

    Mamy magnetofon cyfrowy z analogowym wejsciem. Cale urzadzenie rejestruje elektryczne analogowe sygnaly zmienne w czasie (jedna z podstaw sygnalu) w postaci cyfrowej. Jest sygnal w czasie, konwerter majacy wyrazna czestotliwosc probkowania (mierzy cos w czasie) i filtr ograniczajacy czestotliwosc (w czasie) sygnalu do naszego kownertera. Dalej zapis, ale to juz sygnal cyfrowy...

    Czy nasz konwerter bedacy pikselem z waga zamieniajacy w dwoch krokach ilosc swiatla dajac nam jego cyfrowy odpowiednik w postaci liczby dziala podobnie? Nie ma zadnej zaleznosci od czasu. Mierzymy przeciez calkowita ilosc swiatla z piksela bez zadnego "na sekunde". Tak samo przestrzen. Mamy piksel lapiacy okreslona ilosc swiatla. Czy ma znaczenie gdzie on to lapie dla wyniku?

    Uderzmy w temat inaczej...

    Definicja:
    A digital image is a representation of a two-dimensional image as a finite set of digital values, called picture elements or pixels.
    Obraz cyfrowy to reprezentacja dwu wymiarowego obrazu jako zbioru skonczonych cyfrowych wartosci nazywanych elementami obrazu lub pikselami.

    Traktujac calosc nieco dowolnie tak naprawde nie ma znaczenia czy wartosci beda w postaci ilosci swiatla, ilosci elektronow czy liczby reprezentujacej jedno albo drugie. Liczy sie tylko i wylacznie fakt ze jest to skonczony zbior punktow w dwuwymiarowej przestrzeni. Tak naprawde mozemy na murze pedzlem malowac obraz skladajacy sie z pikseli piszac poszczegolne wartosci rgb punktow skladowych czy malujac kolory i to tez bedzie obraz cyfrowy.

    Wlasnie... Proste definicje...

    Wrocmy do analogii magnetofonu. Magnetofon zamienia nasz sygnal elektryczny w czasie (zarowno audio jak i video) na postac cyfrowa. A co robi cyfrak?

    Czyz nie jest tak ze obrabiajac nasze piksele mamy juz doczynienia z obrazem cyfrowym? Czy ma znaczenie czy zawartosc pikseli bedzie w ilosci swiatla, elektronach, liczbach czy ogorkach w sloikach dla calosci obrazu?

    Cala zamiana obrazu na cyfrowa postac sprytnie i niezauwazenie nastepuje jeszcze zanim swiatlo zostanie zamienione na elektrony i grubo przed zamiana tego swiatla jako liczby w pliku RAW. To tu jest tak naprawde nasze swiatlo gdzies w przestrzeni. Tu plynne swiatlo jest zamieniane na cyfrowa matematyczna postac w okreslonej przestrzeni dwuwymiarowej podzielonej na cyfrowe ziarna bedace pikselami na matrycy.

    Skoro tu mamy nasz sygnal (w przestrzeni) to gdzie nasza czestotliwosc probkowania? Jako ze operujemy w przestrzeni a nasza jednostka cyfrowa sa piksele to bedzie to rozdzielczosc sensora i gestosc upakowania pikseli na matrycy w przestrzeni. Zwykle piksele na milimetr. Patrzcie jak na wierzchu i jakie proste... Skoro wiemy juz gdzie mamy sygnaly "analogowe" i gdzie lezy nasze ograniczenie przejdzmy do filtrowania sygnalu (obrobka sygnalow).

    Jurek napisal o swietle jako fali swiatla widzialnego i bliskowidzialnego. Rzeczywiscie tak jest. Mamy czerwony, zielony, niebieski, podczerwien, ultrafiolet i co tam jeszcze sobie kazdy wynajdzie (w encyklopedii)...

    Obrabiajmy... Jako ze sensory sa praktycznie tak samo czule na swiatlo widzialne jak i podczerwien nalezy obrobic sygnal ograniczajac czestotliwosc. W tym wypadku co prawda nie jest to filtrowanie do mozliwosci czestotliwosciowych naszego konwertera a do niepozadanych wartosci ktore powoduja nieprawidlowe oddanie barw.

    Wycinamy cala podczerwien. Robi sie to na dwa sposoby. Albo poprzez szybke zwana "dichroic mirror" odbijajaca cala podczerwien a przepuszczajaca wszystko inne albo poprzez szklo pochlaniajace podczerwien (infrared absorption glass). Canon stosuje tutaj kanapke skladajaca sie z obu tych elementow (najpierw odbija a reszte pochlania). Podobne elementy sa na bezfiltrowych sensorach kodaka i wszystkich innych nieastronomicznych zastosowaniach sensorow krzemowych. Podczerwien generalnie jest niepozadana w normalnym fotografowaniu.

    Ultrafiolet z drugiej strony nas nie interesuje, sensory sa w zasadzie nieczule na niego, swiatlo widzialne oczywiscie chcemy najchetniej w postaci nienaruszonej...

    Dochodzimy do punktu w ktorym warto przypomniec po co to wszystko tu pisze.

    Ano po to:



    Problemem zwiazanym z probkowaniem sygnalu i jego zamiana na postac cyfrowa jest aliasing.

    Jak to powstaje i co to jest? Probkujac z pewna czestotliwoscia sygnal wysokiej czestotliwosci uzyskujemy zbior cyfrowych danych odpowiadajacy sygnalowi nizszej czestotliwosci. Zupelnie jak na wykresie powyzej. Mimo ze probkowalismy czerwona sinusoide tak naprawde majac tylko cyfrowe dane w postaci tych punktow nie jestesmy w stanie powiedziec czy probkowane bylo to niebieskie czy to czerwone gdyz nie mamy zadnych danych o sygnale pomiedzy probkami przed konwersja.

    Aliasing (podobnie jak sygnal) moze byc zarowno w czasie jak i w przestrzeni. Ten drugi odnosi sie bezposrednio do naszego przypadku i obrazu. Jak wyglada? Znana wszystkim popularna mora. To ta "duza fala" (urojona) powstajaca z malej probkowanej z nieodpowiednia czestotliwoscia.

    Ale zaraz... Skoro czestotliwosci to nasze podczerwienie i ultrafiolety... No wlasnie. Proste definicje. Wylazla fizyka ze szkoly.

    Jak zapewne wiekszosc tutaj technicznych wie, swiatlo ma nature korpuskularno-falowa. To nie tylko podczerwienie i ultrafiolety (fale) ale tez strumien czasteczek zwanych fotonami.

    Zamieniajac naszym konwerterem (sensorem) swiatlo na piksele nie zamieniamy go bazujac na pasmach i kolorach (czyli fali w czasie) a bazujac na jego ilosci w przestrzeni (fotonach). Naszym sygnalem nie jest podczerwien, ultrafiolet, niebieski czy zielony ale ilosc swiatla w danym punkcie matrycy. Ilosc w przestrzeni. Nasza czestotliwosc to dajace sie rozroznic linie na milimetr pochodzace z obiektywu. Jak widac podstawa nadal scisle pasuje do definicji sygnalu i encyklopedycznych definicji aliasingu.

    Znamy tez juz ograniczenie konwertera (czestotliwosc probkowania) w postaci pikseli w przestrzeni (jednostki sie zgadzaja) wiec mozemy tu stosowac nasze teorie obrobki sygnalu i filtrowanie...

    Tak. Tu. Nie na sensorze podczas zamiany fotonow na elektrony i pozniej podczas zamiany ladunku na liczby w rawie. Obie te rzeczy przeprowadza sie dla pojedynczych pikseli w oderwaniu od calej reszty i to tak naprawde kosmetyka. Rownierz robiac z rawem kombinacje bayera czy jakiekolwiek inne operacje na pikselach obrabiamy sygnal cyfrowy. To operujac na swietle jako takim stosuje sie wszelkie nyquisty, czestotliwosci, filtry i cala reszte matematyki czestotliwosciowej.

    Czemu nie dalej? A gdzie i jak niby mialo by sie to odbywac skoro sygnal jest juz cyfrowy? Jak juz napisalem nasza konwersja do postaci cyfrowej nastepuje w momencie dzielenia obrazu z obiektywu na piksele. Cala reszta operacji po podzieleniu na piksele odbywa sie w oderwaniu zarowno od przestrzeni jak i od czasu bazujac na pojedynczych pikselach jako suchej reprezentacji cyfrowej. Teraz juz po frytkach. Aliasing wystepujacy przy probkowaniu obrazu do postaci cyfrowej jesli mogl to wystapil.

    Mamy juz cyfrowy obraz z pikseli. Skad wiadomo ze to mora a nie cien na budynku? Skad wiadomo ze fotografujemy ubranie jednolitego koloru a nie w paski/prazki/cokolwiek? No wlasnie. Nie wiemy. Mory (aliasingu) nie da sie wyeliminowac po tym jak wystapi. Nawet traktujac wszystkie piksele jako zbior nic na aliasing nie poradzimy bo to juz jest sygnal cyfrowy. Stracilismy bezpowrotnie plynnosc analogowego sygnalu z obiektywu uzyskujac w zamian cyfrowa ziarnistosc. Zgadza sie?

    Kryterium Nyquista mowi, ze aliasing wystapi jesli czestotliwosc sygnalu probkowanego jest wyzsza jak polowa czestotliwosci probkowania. To mozna bardzo latwo policzyc. Rozdzielczosc sensora jest scisle okreslona, zdolnosci obiektywow tez... Porownujac jedno i drugie mozna wyliczyc czy i kiedy wylozy sie nasz zestaw.

    Jako ze caly czas o filtrowaniu...

    W przypadku sygnalow bazujacych w oparciu o czas zastosowanie filtra dolnoprzepustowego jest w zasadzie bardzo proste. Majac przebieg elektryczny w czasie (np. audio) mamy szereg najrozniejszych elektrycznych filtrow o ostrej charakterystyce odciecia pozwalajacych wyeliminowac zaklucajacy calosc sygnal wprowadzajacy artefakty zwiazane z aliasingiem. Bylo na elektronice

    W zasadzie nawet majacy obalic teorie przyklad z IR swietnie pokazuje ze bardzo latwo pracowac na sygnalach wzgledem czasu nawet jesli jest to swiatlo (fala rzedu set terahercow). Wyciecie podczerwieni czy swiatla widzialnego bazujac na czestotliwosci w czasie jest banalne. Prawie wszyscy maja filtry IR na matrycy i sporo ludzi wie o istnieniu R72 pozwalajacego na fotografie w podczerwieni czy UV'kach eliminujacych ultrafiolet. Filtr czerwony, zielony czy niebieski tez bazuje na czestotliwosci swiatla w czasie.

    W optyce i obrobce sygnalu bazujacej na przestrzeni niestety tego typu filtry nie istnieja.

    Eliminacja wysokich czestotliwosci (drobnych detali w obrazie) odbywa sie poprzez zmiekczenie calego obrazu. Tracimy drobne detale, ale niestety calym procesem dotykamy tez wszystko inne. Tak. Nasz filtr dolnoprzepustowy to szkielko zmiekczajace caly obraz przed matryca. Inaczej sie nie da.

    Tu sa dwie metody. Albo jak Canon bez mory, albo nieco ostrzej jak Nikon i Kodak. Mozna tez kompaktowo. Upychajac duza liczbe sensorow (duza czestotliwosc probkowania) przewyzszymy rozdzielczosc sygnalu pochodzacego z obiektywu. Niestety w tym wypadku tracimy na czulosci sensora i w plecy jestesmy na szumach. Nie ma nic za darmo.

    Pamieta ktos lekarstwo na more w Kodaku? Wiemy ze dyfrakcja ogranicza rozdzielczosc obiektywu. Stad numer z przymykaniem obiektywu do np. f/16 pozwalajacy pozbyc sie mory. Jeden z przykladow filtrowania.

    Mam nadzieje ze nie musze dalej udowadniac ze w naszym bidnym Kodaku (i nie tylko nim) nie ma filtra, nie musi nigdzie byc oraz skad sie wziely takie a nie inne okreslenia na poszczegolne elementy i co tak naprawde jest cyfrowe a co analogowe. Jak widac wszystko mozna sprowadzic do prostych definicji i wyjasnic bez zadnego "musi byc" oraz pomimo ze jest kupe analogii niestety nie wszystko bezposrednio przenosi sie z jednego na drugie.

    O calym tym temacie sa tony materialow w sieci, to powyzej to tylko prostacko nienaukowo opisany zarys zagadnienia. Niech mi ktory wyjedzie tutaj z czasem naswietlania jako dowodem na zaleznosc od czasu czy tym ze ten opis jest zly bo bayer i to pasuje tylko do foveona (tez jest mora, wlasnie taka mono o jakiej pisze) lub sensora jednokolorowego (takie tez sa) to utluke
    Ostatnio edytowane przez KuchateK ; 09-11-2005 o 18:37
    ...

  6. #36
    Pełne uzależnienie Awatar KuchateK
    Dołączył
    Feb 2005
    Miasto
    USA
    Posty
    4 895

    Domyślnie

    Cytat Zamieszczone przez eMILz
    ah jeszcze odnosnie tego dlaczego soczewki moga byc filtrem AA
    Wyjdz z definicji obrazu cyfrowego i uswiadom sobie co robia soczewki? No wlasnie. One nie zmiekczaja obrazu zachowujac jego analogowa plynna postac. One dziela obraz rozrywajac go na punkty odpowiadajace pikselom. Jedyne ich zadanie to zwiekszenie efektywnosci piksela w lapaniu swiatla w obrebie tego piksela. Ich praca odnosi sie tylko i wylacznie do pikseli.

    Filtr to rozmywanie naszej fali swietlnej tak, ze najdrobniejsze detale beda powyzej naszego podwojnego nyquista, czyli dwa piksele. Filtr pracuje na poziomie wyzszym od piksela obejmujac ich grupy dbajac o to aby stosunek naszego sygnalu do naszej czestotliwosci probkowania byl odpowiedni.
    ...

  7. #37

    Domyślnie

    Cytat Zamieszczone przez KuchateK
    Wyjdz z definicji obrazu cyfrowego i uswiadom sobie co robia soczewki? No wlasnie. One nie zmiekczaja obrazu zachowujac jego analogowa plynna postac. One dziela obraz rozrywajac go na punkty odpowiadajace pikselom. Jedyne ich zadanie to zwiekszenie efektywnosci piksela w lapaniu swiatla w obrebie tego piksela. Ich praca odnosi sie tylko i wylacznie do pikseli.

    Filtr to rozmywanie naszej fali swietlnej tak, ze najdrobniejsze detale beda powyzej naszego podwojnego nyquista, czyli dwa piksele. Filtr pracuje na poziomie wyzszym od piksela obejmujac ich grupy dbajac o to aby stosunek naszego sygnalu do naszej czestotliwosci probkowania byl odpowiedni.
    Zle napisalem .. ze moga byc filtrem AA
    ale zgodzisz sie ze ze ich wielkosc moze miec wplyw na zmniejszenie zjawiska aliasingu ...

  8. #38
    Uzależniony
    Dołączył
    Jul 2005
    Wiek
    52
    Posty
    503

    Domyślnie

    Niemoze miec wplywu, aliasing powstaje juz za nimi a nawet za detektorami na ktore naprowadzaja one swiatlo...
    Czarna puszka i gruszka... www.andee.nwz.pl

  9. #39

    Domyślnie

    http://img325.imageshack.us/img325/3...titled12al.jpg

    teraz troszke domalowalem moze latwiej bedzie mi przedstawic o co mi chodzi ...

    w drugim przypadku sensorem jest maly punkcik w srodku kwadraciku...

    w pierwszym nad sensorkiem umieszczamy soczewke ktora ma dawac mu wiecej swiatla ...

    efekty sa po prawej ...
    czy drugi przypadek bedzie mial sklonnosci do wiekszego schodkowania ??

  10. #40
    Uzależniony
    Dołączył
    Jul 2005
    Wiek
    52
    Posty
    503

    Domyślnie

    Niestety chyba sie nie dogadamy
    Czarna puszka i gruszka... www.andee.nwz.pl

Strona 4 z 11 PierwszyPierwszy ... 23456 ... OstatniOstatni

Uprawnienia umieszczania postów

  • Nie możesz zakładać nowych tematów
  • Nie możesz pisać wiadomości
  • Nie możesz dodawać załączników
  • Nie możesz edytować swoich postów
  •