Przeskocz do treści

Delta mi!

  1. obrazek

    Informatyka

    25 lat Olimpiady Informatycznej

    3 stycznia 1994 roku rozpoczęły się zawody I stopnia I Olimpiady Informatycznej, w których wystartowało 528 uczniów z całej Polski. Uczniowie mieli trzy tygodnie na rozwiązanie trzech zadań. 64 uczniów z najlepszymi rozwiązaniami awansowało do zawodów II stopnia, które odbyły się 18-20 marca 1994 roku w Ośrodku Edukacji Informatycznej i Zastosowań Komputerów w Warszawie. Finały I Olimpiady Informatycznej miały miejsce w dniach 18-22 kwietnia 1994 roku, także w gościnnych murach Ośrodka Edukacji Informatycznej i Zastosowań Komputerów. W gronie finalistów znalazło się 33 uczniów. Pierwszym zwycięzcą Olimpiady Informatycznej został Michał Wala z I LO im. J. Kasprowicza z Raciborza.

  2. obrazek

    Sztuczna inteligencja

    Co widzą głębokie sieci neuronowe?

    W ciągu ostatnich kilku lat świat naukowo-techniczny nauczył się uczyć tzw. głębokie sieci neuronowe rozpoznawania treści obrazów. Rezultaty są spektakularne: dobrze nauczony model potrafi znaleźć na obrazku wszystkie zwierzęta i rozróżnić ich gatunki, przerobić zwykłe zdjęcie tak, żeby wyglądało na namalowane przez Picassa, czy domalować brakujący kawałek przedmiotu, którego nigdy wcześniej "nie widział". A wszystko opiera się na prostym przepisie: weź model matematyczny (nieskomplikowany pojęciowo, ale o wielkiej liczbie parametrów), dodaj jak najwięcej mocy obliczeniowej (w praktyce kart graficznych), poczekaj.

  3. Informatyka Migawki informatyczne

    Eter jednak istnieje!

    Naturalnie, wszystko się zaczyna od tabula rasa. Toteż załóżmy, że dysponujemy wielką niezapisaną tablicą. Po tej tablicy pisać będzie mógł absolutnie każdy, kto tylko chce. Pisać wolno wszystko, należy się jedynie podpisywać. Komunikaty nigdy nie znikają, a budowa tablicy jest taka, że łatwo się zorientować, w jakiej kolejności pojawiały się obecne na niej napisy...

  4. Informatyka

    Ciekawe rodzaje błędów programistycznych

    Mówi się, że nie ma ludzi nieomylnych. Zgubiony minus w równaniu może doprowadzić do szału niejednego matematyka czy fizyka. Podobnie jak zgubiony średnik, znak równości czy inna literówka potrafi sprawić, że informatycy poświęcają pisaniu programu więcej czasu, niż mieli zamiar. Dziś chciałbym porozmawiać o błędach w programowaniu. Ale nie takich zwykłych. W niniejszym artykule przedstawię kilka kategorii błędów, które zdarzają się bardzo rzadko, ale gdy już się zdarzą, wprawiają w zdumienie nawet doświadczonych programistów.

  5. obrazek

    Sztuczna inteligencja Co to jest?

    Głębokie uczenie maszyn

    Czy zastanawialiście się kiedyś nad tym, czym jest inteligencja? Większość definicji zakłada posiadanie zdolności do rozumowania, uczenia się, adaptacji do zmieniającego się otoczenia. Najczęściej mówi się o inteligencji ludzi i zwierząt - organizmów mających mózg, a więc organ biologiczny. Czy inteligencja musi być jednak domeną jedynie istot, które uważamy obecnie za żywe? Wielu Czytelników słyszało zapewne również o inteligencji "sztucznej", określanej tak dlatego, że nie występuje ona w sposób naturalny w przyrodzie, ale w emergentny sposób pojawia się w maszynach i algorytmach tworzonych dzięki innej inteligencji, np. człowieka.

  6. Algorytmy

    Kwantowe wyżarzanie „klasycznej” optymalizacji

    Wydaje się, że moc, szybkość obliczeniowa współczesnych komputerów, bazujących na krzemie, osiąga swoje plateau wynikłe z ograniczeń natury materiałowej. Jednocześnie w wielu dziedzinach życia codziennego, poczynając od prób unikania korków w planowanej podróży, poprzez minimalizację kosztochłonności produkcji aż po liczne zaawansowane zagadnienia badawcze z zakresu teorii sterowania, staramy się optymalizować nasze postępowanie. Wobec wspomnianych ograniczeń sprzętowych pozostaje nam poszukiwanie nowych algorytmów dla optymalizacji lub zupełnie nowych paradygmatów obliczeniowych - być może kwantowych?

  7. Algorytmy Co to jest?

    Algorytm faktoryzacji Shora

    W 1994 roku Peter Shor, pracujący wówczas w Bell Labs w New Jersey, pokazał, jak przy użyciu hipotetycznego komputera kwantowego rozłożyć w czasie wielomianowym dowolną liczbę naturalną na czynniki pierwsze. W tamtym czasie algorytmy kwantowe dopiero raczkowały. To właśnie odkrycie Shora spowodowało wielki rozwój tej dziedziny. Społeczność informatyków zrozumiała, że gdyby udało się zbudować komputer kwantowy rozsądnej wielkości, to świat stałby się istotnie inny. Nie jest bowiem znany żaden algorytm dla problemu faktoryzacji, czyli rozkładu na dzielniki pierwsze, który działa w czasie wielomianowym na komputerze klasycznym. Co więcej, nawet nie znaleziono algorytmu losowego, który z dużym prawdopodobieństwem w zazwyczaj niedługim czasie faktoryzuje liczbę: nie jest po prostu znana zupełnie żadna rozsądna heurystyka...

  8. Informatyka Co to jest?

    Komputery kwantowe – od Feynmana do Google'a

    "Informacja jest fizyczna" powiedział Rolf Landauer, fizyk, któremu zawdzięczamy zrozumienie faktu, że usunięcie 1 bitu informacji z pamięci komputera wiąże się z nieuniknionym wytworzeniem ciepła o wartości |kT ln 2; gdzie |T jest temperaturą otoczenia, a k stałą Boltzmanna. Był to wynik, który pokazał, że warto myśleć o fizycznych podstawach przetwarzanej przez nas informacji, aby zrozumieć ograniczenia i perspektywy dalszego rozwoju komputerów. Dziś wiemy, że materia na poziomie mikroskopowym opisywana jest przez prawa fizyki kwantowej...

  9. Informatyka

    O modelach obliczeń komputerowych

    Zastanówmy się nad następującym pytaniem: czym jest komputer? Sądzę, że odpowiedź na tak zadane pytanie może zależeć w znacznej mierze od tego, kogo o to pytamy. Taka sytuacja nie jest, oczywiście, czymś wyjątkowym. Jeśli zamiast informatyką zajmiemy się cukiernictwem i zapytamy: czym jest tort, to też różne osoby będą różnie odpowiadać...

  10. Algorytmy

    Dlaczego problem |P ? NP jest tak trudny?

    24 maja 2000 roku Instytut Matematyczny Claya ogłosił listę siedmiu Problemów Milenijnych, czyli zagadnień, które zostały uznane za najważniejsze otwarte problemy matematyczne opierające się rozwiązaniom od lat. Wśród nich był jeden problem zaliczany do informatyki teoretycznej, o którym wielu Czytelników zapewne słyszało. Chodzi oczywiście o tytułowy problem: "Czy P=NP"? Jest on powszechnie uznawany za najważniejsze pytanie informatyki teoretycznej.