Najlepszy darmowy antywirus

Na rynku jest wiele dostępnych antywirusów, jednak za te najlepsze trzeba zapłacić czasami spore (jak na polskie warunki) pieniądze. Oczywiście w Internecie znaleźć można wiele darmowych antywirusów, jednak wiele z nich jest niskiej jak na takie oprogramowanie jakości. Przeprowadzono wiele testów – który antywirus jest najlepszy i okazuje się, że nie ma czegoś takiego. Wszystkie programy antywirusowe opierają swoje działanie na bibliotekach definicji szkodliwych kodów. Spora ich część ma wykrywalność wirusów bliską 99%, a skoro wszystkie to jak znaleźć odpowiedni dla siebie program?
Ważne jest by określić czego potrzebujemy – czy dobrego skanera antywirusowego, a może ochrony w czasie rzeczywistym albo dobrego firewall`a lub piaskownicy (wydzielonego przestrzeni testowej dla podejrzanych plików). Biorąc pod uwagę te kryteria można stwierdzić, że najlepszym antywirusem jest avast! Home edition. Posiada tryb ochrony rzeczywistej, ochronę anty-spyware i anty-malware, jedyną jego wadą jest pewna nadwrażliwość (czasami wykrywa więcej zagrożeń niż jest ich w rzeczywistości).
Należy pamiętać jednak, że nawet najdroższy i najlepszy pakiet antywirusowy, całkowicie nie zabezpieczy naszego komputera. Jednak przy odrobinie ostrożności nawet darmowy antywirus będzie starczył na tyle długo by dobrze utrzymać higienę i bezpieczeństwo pracy na naszym komputerze i móc spokojnie spać nie martwiąc się o nasze dane.

Komputer z Debianem na lata

Problemem nowoczesnego sprzętu komputerowego jest jego mała trwałość. Pomijając już marną jakość samego sprzętu (obliczonego na wytrzymanie około 3 lat), jednak każdy kto używał Windows`a świadom jest faktu, że nie można utrzymać higieny systemu zbyt długo. Czy to przez błędne założenia programistów czy przez słabą jakość wykonania jesteśmy zmuszeni od czasu do czasu sformatować dysk i żmudnie instalować system od nowa.
Dla ludzi którzy są zmęczeni takim stanem rzeczy jest alternatywa – Debian. Jest to projekt oparty na licencji GNU/Linux, jego początki sięgają 1993 roku gdy Ian Murdock postanowił ogłosić manifest Debiana zakładający ze system zawierał będzie zawsze najbardziej aktualne oprogramowanie. Projekt nie odnotował początkowo znaczących sukcesów, jednak opierając się na idei wolnego oprogramowania nie przestawał się rozwijać. W 2002 roku wydano wersję 3.0 Woody działająca na 11 różnych architekturach sprzętowych, posiadającą 8500 różnych pakietów i ponad 900 developerów.
Najnowszą stabilną wersją systemu jest ta wydana w 2011 – Squeeze oferująca ponad 36000 gotowych pakietów. System ten jest (całkowicie zasłużenie) uznawany za jeden z najstabilniejszych i pewnych, przy czym jego nowe komponenty są cały czas opracowywane. Kolejnym atutem Debiana jest jego cena, a właściwie jej brak. Trzeba jednak wykazać się pewnych umiejętnościami w używaniu go, więc jest przeznaczony jedynie dla zaawansowanych użytkowników komputerów.

Ubuntu – system dla wszystkich

Słowo ubuntu pochodzi z afryki i oznacza „człowieczeństwo dla wszystkich”. Nic dziwnego, że taką nazwę nadano systemowi operacyjnemu, który z założenia miał być otwarty i całkowicie darmowy (według filozofii Open). Rozwojem i utrzymywaniem zajmuje się firma Canonical Ltd. System ten ma znamiona podobieństwa do Unixa, opracowany na jądrze Linux (o licencji GNU). Jest to modyfikacja Debiana (wersji Sid) przeznaczona do codziennego użytku. System korzysta ze środowiska graficznego GNOME z nakładką Unity, choć można nadal znaleźć wersję z innymi środowiskami graficznymi np. Kubuntu
Projekt Ubuntu, którego celem było wykorzystanie jedynie wolnego oprogramowania (różnica pomiędzy otwartym, a wolnym oprogramowaniem jest czysto ideologiczna – chodzi o to że zwolennicy idei wolnego oprogramowania odrzucają możliwość zysku płynącego ze sprzedaży kopii oprogramowania), powstał w 2004 roku (pod nazwą no-name-yet.com) jako tymczasowe wydanie Debiana. Wydawany był (i nadal jest) w cyklu pół rocznym, popularnością zdecydowanie wyprzedzając Debiana i Fedorę.
W wersji 11.10 Canonical w pełni zmieniło środowisko graficzne – zrezygnowano z korzystania z przestarzałego GNOME i połączono je z Unity (początkowo opracowywanego z przeznaczeniem na netbooki, wykorzystującego w pełni ekrany panoramiczne w tych urządzeniach) wcześniej stosowanym jedynie jako nakładka. Canonical planuje wejść ze swoimi produktami na rynek smartfonów i tabletów.

Drukowanie 3D w domu

Rozwój techniki daje coraz większe możliwości – komputery, dawniej dostępne tylko dla większych jednostek badawczych, nosimy codziennie ze sobą, możemy robić zdjęcia galaktyk odległych o lata świetlne, nasze pojazdy poruszają się po innych planetach, dzięki Internetowi możemy swobodnie dzielić się myślami i ideami z ludźmi na całym świecie. Wszystkie te odkrycia i osiągnięcia są bardzo znamienne, a na horyzoncie pojawiają się nowe.
Jednym z nich jest możliwość drukowania w 3D – jak dotąd dostępna jedynie dla większych uczelni lub firm mających na tyle szeroki budżet by było stać na zakup i utrzymanie tego typu urządzenia. Jednak według zapowiedzi technologia ta ma być ogólnodostępna już w przeciągu 2013 roku! Drukowanie trójwymiarowe to proces polegający na przeniesieniu cyfrowej wersji przestrzennego modelu do rzeczywistości. Odpowiednie oprogramowanie dzieli cyfrowy model na warstwy jednocześnie zlecając odtworzenie repliki samemu urządzeniu – wszystko warstwa po warstwie.
Technicznie rzecz biorąc jest to proces przeciwny do np. toczenia. Można w ten sposób odtworzyć praktycznie dowolny model – jeśli tylko ma się odpowiednie materiały. Gdyby taką technologię udostępnić dla zwykłych ludzi byłaby niezwykłym udogodnieniem – wszelkiego rodzaju części (czy to plastikowe czy metalowe) można by wykonać na miejscu. Rozwiązałoby to wiele problemów związanych np. ze starym sprzętem elektronicznym dla którego nie produkuje się już części zamiennych.

Plotery i drukarki 3d

Postęp techniczny zapewnia wsparcie dla wielu zawodów, lecz największym zmianom uległy zawody związane z kreatywną naturą człowieka. Dzięki rozwojowi i udostępnieniu komputerów osobistych zawody architekta czy grafika (lecz także wiele innych) dostały nowy, o wiele bardziej wydajniejszy zestaw narzędzi. Dzięki nim powoli do lamusa odchodzą deski kreślarskie, rapidografy czy wiele innych podobnych przyrządów – wszystko zastępowane przez komputer z tabletem i odpowiednie oprogramowanie.
Jednak nie tylko sam proces projektowy został ułatwiony – dzięki opracowaniu ploterów prezentowanie wyników tego procesu nie wymaga wiele wysiłku. Teraz wystarczy parę minut by stworzyć plansze o prawie dowolnej wielkości – w przypadku gdy chodzi nam o schemat konstrukcyjny czy o bilbord. Teraz ploter zdolny wycinać czy malować duże i dokładne połacie dostępny jest dla każdego większego biura projektowego czy drukarni.
Kolejnym takim ułatwieniem jest drukarka 3D – działa ona na zasadzie dodawania warstw materiału tak by produkt końcowy odpowiadał naszemu wyobrażeniu (metoda ta nazywa addytywną). Oprogramowanie dzieli przedmiot na warstwy które samo urządzenie potem odtwarza – et voila mamy gotowy model. Dzięki temu konstruowanie modeli nie stanowi żadnego wyzwania – maszyna zrobi to za nas. Pamiętamy scenę z Parku Jurajskiego S. Spielberga gdzie naukowcy na podstawie modelu komputerowego odtwarzają narząd głosowy dinozaura. Wtedy była to prawie że fikcja (albo technologia ta była dostępna dla nielicznych) – teraz za nawet nie duże pieniądze można dostać taką drukarkę.

Zjawisko „ghost key” na klawiaturze

Zjawisko key ghosting to zmora wszystkich którzy codziennie korzystają z komputera. Jest ono na tyle powszechne by poważni producenci klawiatur zajęli się nim na poważnie. Wynika ono z samej budowy i sposobu w jaki klawiatura łączy się z komputerem i zachodzi gdy (w dużym uproszczeniu) użytkownik próbuje nacisnąć za dużo klawiszy naraz.
Klawiatura to zbiór klawiszy połączonych przewodami, a zjawisko „klawisza ducha” zachodzi w wypadkach:
– gdy urządzenie nie może odczytać konkretnej kombinacji
– gdy oprogramowanie nie przewiduje odczytywania kombinacji klawiszy
– gdy sposób połączenia klawiatury z komputerem nie jest w stanie przesłać większej ilości informacji np. w wypadku połączenia PS/2
Klawiatura rozpoznaje klawisz poprzez jego pozycję (odczytanie rzędu i kolumny) na siatce przewodów. W przypadku gdy wciśnie się pewną kombinację klawiszy, może ona spowodować pojawienie się sygnału z nie wciśniętego klawisza lub też jego zanik (zablokowanie)
Większość przypadków występowania key ghostingu rozwiązał sam postęp i rozwój technologii – zastąpienie złącza PS/2 nowym USB i wprowadzenie nowych rozwiązań technicznych w zakresie połączeń klawiszy, jednak zjawisko to nie zostało do końca wyeliminowane. Obecnie najlepsze klawiatury są w stanie prawidłowo rozpoznać do 15 klawiszy naraz, tak więc są w stanie sprostać nawet najbardziej wymagającym użytkownikom i przede wszystkim zapalonym graczom.

A może jakiś gadżet?

Mówi się ze mając pieniądze można mieć wszystko inne – przynajmniej w sferze dóbr materialnych. Jeśli stać nas na każdy elektroniczny gadżet możemy spokojnie wybierać te najlepsze. Co jednak mamy robić gdy portfel nie jest tak gruby jak byśmy chcieli, a jednak odczuwamy potrzebę posiadania jakiejś nowej zabawki? Nie ma się co martwić – oczywiście posiadanie np. iPada 2 czy najlepszego laptopa to osiągnięcie pewnego prestiżu, ale gdy nie przejmujemy się takimi bzdetami jak opinia znajomych to za o wiele mniejsze pieniądze jesteśmy w stanie nabyć fajny i funkcjonalny gadżet.
Przy kupnie elektroniki zawsze powinniśmy kierować się zasadą: bierz to co najlepsze. W dzisiejszych czasach nawet takie giganty jak Sony czy Panasonic (o ugruntowanej pozycji – dzięki doskonałej jakości wyrobom) nie są w stanie zagwarantować nam że nasz sprzęt będzie działał bez usterki przez szereg lat. Obecnie większość urządzeń elektronicznych projektowana jest tak by miała przepracować około 2 lat – potem jest już zwyczajnie zbytnio wyrobiona i zużyta (tak nawet obwody elektroniczne mają swoją wytrzymałość i podlegają zmęczeniu materiału) by działać bez awarii.
Poza tym nawet mając przed sobą dwie sztuki takiego samego urządzenia nie możemy mieć pewności że będą one działać tak samo sprawnie. Powodem tego jest słaba jakość podzespołów – oszczędzanie na materiałach, na sile roboczej, a czasami nawet głupie błędy projektowe. Dlatego drogi konsumencie – nie kupuj marek, inwestuj w sprzęt!

Klawiatury dla graczy

Tak jak alpiniście potrzebny jest zestaw lin i haków, kierowcy rajdowemu dobry samochód tak i w przypadku gdy mamy do czynienia z „wyczynowym” graczem komputerowym (termin ten może u niektórych wywołać uśmiech politowania jednak wbrew pozorom sportowe granie na komputerze też jest ciężkie) np. w Starcrafta czy Counter Strike (zdziwionych informujemy że są miejsca gdzie ludzie tacy traktowani są niczym olimpijczycy i zarabiają na tym pokaźne pieniądze), różnicę pomiędzy wygranym a przegranym wyznacza między innymi odpowiedni sprzęt.
Obok tak oczywistych jak mocny komputer i dobre złącze internetowe powinniśmy postawić tak ważne rzeczy jak mysz i klawiatura. Przecież nie może nastąpić sytuacja gdy w środku rozgrywki nasi partnerzy polegają na nas a nasz sprzęt zawodzi prawda? Dlatego też warto śledzić aktualne nowinki techniczne w poszukiwaniu sprzętu, który sprosta naszym wymaganiom.
W wypadku klawiatur najważniejszym na co musimy zwracać uwagę to tzw. „keyboard ghosting”. Zjawisko to występuje w większości dostępnych na rynku klawiatur i wynika z samej budowy niż z jakiegoś „błędu” i zachodzi gdy próbujemy wcisnąć więcej klawiszy naraz. Przystosowane dla graczy klawiatury powinny być pozbawione możliwości wystąpienia tego zjawiska – bo nie desing czy ilość paneli lcd decydują o jakości klawiatury, a możliwość jej używania w wymaganych warunkach.

Laptop w ogniu?

Większość użytkowników laptopów słyszała sensacyjne historie o palących się lub wybuchających laptopach lub ich bateriach. Większość z nich okazała się jednak nie prawdą ale pozostaje jeden bardzo poważny mankament. Otóż laptop to komputer przenośny – został zaprojektowany tak by być lekki (aby torba za bardzo nie ciążyła, jak również żeby zakup był lekki dla kieszeni). Producenci laptopów robią różne rzeczy by zmniejszyć ich wielkość czy wagę a postępująca miniaturyzacja idzie z nimi w parze. Rezygnuje się z większych matryc, jak najwięcej metalowych części zamienia się na plastikowe, a do produkcji tych pozostałych (które po prostu muszą być z metalu) używa się jak najlżejszych stopów. Takie podejście samo w sobie nie jest złe – w końcu zadowolenie klienta, który nie musi dźwigać przesadnie wielkiego i ciężkiego laptopa, to coś co dla producenta przekłada się na wymierny zysk. Dodatkowo używanie tanich materiałów zmniejsza cenę samego urządzenia a więc sprawia ze jest ono bardziej konkurencyjne. Jednak poprzez takie działania zdarza się że wyrób traci na jakości i mimo swojej konkurencyjnej ceny nie jest chodliwym towarem. Następną sprawą jest ograniczona ilość możliwości chłodzenia takiego sprzętu – i to jest jeden z poważniejszych problemów jakie nękają nowoczesny sprzęt komputerowy (obok czasami słabych lub niewystarczających baterii). Powód tego jest prosty – części laptopa, który systematycznie się nagrzewa szybciej tracą na jakości, co ma wymierne skutki w działaniu samego urządzenia. Jeśli więc zastanawiamy się nad kupnem laptopa a chcemy dostać wyrób który będzie nam służył długo należy rozejrzeć się za sprzętem ze średnich lub nawet wyższych półek.

Laptopy dla graczy

Przyjęło się myśleć że laptop to wygodne urządzenie do pracy – ze względu na wielkość zwykłego „szaraczka” nie zabierzemy pod pacha do biura. Tak też większość ludzi używa tych przenośnych komputerów. Jednak jak wiadomo komputery nie służą tylko i wyłącznie poważnym” celom, coraz częściej używa się ich w celach rozrywkowych – dowodem tego jest rosnący rynek specjalistycznych podzespołów, coraz mocniejsze karty graficzne czy szybsze pamięci ram to tylko niektóre z nich. Tak samo też rozwija się branża elektronicznej rozrywki, czyli niczego innego jak gier komputerowych.
Gracze napędzają wyżej wymienione rynki jednak ostatnio zauważyć można pewien trend – otóż coraz większa ich ilość w wyborze maszyn służących rozrywce wybiera laptopy. Sprzęt taki mimo pewnych wad (długotrwałe użytkowanie na granicy osiągów szybko nagrzewa się) jest ogólnie dostępny, faktem jest że komputery takie są o wiele droższe niż ich „biznesowi” kuzyni jednak znajdą się ludzi gotowi zapłacić więcej pieniędzy za procesory z rodziny Intel i7 czy dedykowane karty NVIDIA (czy ich odpowiedniki spod igły AMD) i dużo więcej pamięci RAM. Najważniejszą częścią takiego komputera jest karta graficzna – to jej zadaniem jest udźwignąć wszystkie shadery czy antyaliasing jaki nasza ulubiona gra może zaoferować. Karta taka koniecznie musi być dedykowana – zwykłe zintegrowane nie dadzą sobie rady w wielu przypadkach (choćby i były to karty wysokiej jakości jak na swoją klasę). Koniec końców warto zaznaczyć, że laptop taki może kosztować nawet 10000 zł jednak jeśli stawiamy na wygodę jaka zapewnia przenośny komputer a potrzebna nam jest wysoka jakość to warto jest zapłacić każde pieniądze za taki wyrób.