Przeskocz do treści

Delta mi!

Loading

Historia Doliny Krzemowej

Jacek Migdał

o artykule ...

  • Publikacja w Delcie: lipiec 2012
  • Publikacja elektroniczna: 01-07-2012
  • Autor: Jacek Migdał
    Afiliacja: student, Wydział Matematyki, Informatyki i Mechaniki, Uniwersytet Warszawski

Co mają wspólnego jeansy, komputer i Facebook? Wszystkie pochodzą z tego samego miejsca – okolic San Francisco. Opowieść o tym jest zbyt świeża, by trafić do podręczników historii. Każdego dnia dopisywane są jej kolejne epizody, które zmieniają nasz świat...

Korzenie Doliny Krzemowej

Rozpoczęła się na krańcu ówczesnego świata, na zachodnim wybrzeżu Ameryki Północnej. Do połowy XIX wieku była to zapadła dziura zamieszkana przez zaledwie math osadników. Wystarczająco dużo, by wzniecić rewoltę, wyrwać się z panowania Meksykanów i trafić w ramiona USA.

Nim opadł pył wojenny, pewien farmer odkrył w okolicy grudkę złota. Mimo szczerych chęci wiadomości nie udało się utrzymać w tajemnicy. Dziennikarz z San Francisco, Samuel Brannan, zwietrzył interes. Wykupił wszystkie łopaty w mieście i zaczął krzyczeć „Złoto! Złoto! Złoto z amerykańskiej rzeki!”. Gorączka złota opanowała miasto. Brannan, sprzedając łopaty, został pierwszym tamtejszym milionerem...

Przez następny rok – 1849 – liczni poszukiwacze złota nadciągali do San Francisco. Droga przez góry była zabójcza, dlatego większość przypływała żaglowcami. Porzucali statki na wybrzeżu i udawali się w głąb lądu. San Francisco stało się cmentarzem masztów, a kolejne fale osadników zalewały stan.

Pierwsi górnicy potrafili zbić majątek, ale prawdziwych fortun dorobili się handlarze. Produkowanie artykułów dla poszukiwaczy złota było również intratnym zajęciem. Np. Levi Strauss zauważył, że górnicy potrzebują trwałych spodni. W 1853 roku założył w San Francisco pierwszą manufakturę jeansów.

Tak powstawała gospodarka Kalifornii, od początku oparta na dwóch zasadach: „zatrudnienie jest wyrazem woli” i  „akceptowanie bankructw”. Zarówno pracownik, jak i pracodawca może w każdej chwili zerwać umowę o pracę. Masz lepszą ofertę – weź ją. Budowanie czegoś na nowym lądzie było obarczone dużym ryzykiem. Jak nie dokopiesz się do złota, to trudno. Nie ma powodu, by dręczyć cię za parę niezapłaconych rachunków.

Poza tym żyzne kalifornijskie ziemie doskonale nadawały się dla rolnictwa math ale do prężnego rozwoju potrzebna była kolej. Jeden z przedsiębiorców, Leland Stanford, zbił fortunę, handlując z górnikami, i zainwestował w linie kolejowe. Dorobił się jeszcze większego majątku, lecz miał tylko jednego potomka. Niestety, jego syn zmarł przedwcześnie i ojciec nie miał komu przekazać swojego dziedzictwa. Założył więc w roku 1891 Uniwersytet Stanforda.

Była to, jak na tamte czasy, całkiem rewolucyjna uczelnia: koedukacyjna, wolna światopoglądowo i nie pobierała czesnego. Kapitalizm szybko zweryfikował ostatni punkt. Uniwersytet ma działać jak prężna firma.

Wszyscy żyli długo i szczęśliwie... do czasu. Wielki Kryzys uderzył w świat z ogromną siłą w 1929 roku. Setki tysięcy ludzi zostały bez pracy, pozostali pogrążyli się w ubóstwie. Wychodząc z kryzysu, realizowano wielkie programy rządowe, w ramach których powstał m.in. most Golden Gate.

Kalifornia i USA były daleko od centrum ówczesnego świata. Z tej sielanki wybudził je atak Japończyków na Pearl Harbor. Chcąc nie chcąc, Stany zostały wciągnięte w drugą wojnę światową...

Następny paragraf historii powstał na wschodnim wybrzeżu USA – w Bostonie. Przybył tam profesor ze Stanfordu, Frederick Terman, by kierować projektami wojskowymi. Całą Europę kontynentalną opanowali naziści i jedynie lotnictwo mogło im wyrządzić znaczące szkody. To nie było proste. Niemcy mieli wysoce zaawansowaną sieć radarów.

Terman wraz z zespołem na MIT (Massachusetts Institute of Technology) pracował nad ich zakłócaniem. Opracowali m.in. aluminiowe urządzenia, których radar nie odróżniał od samolotu. Co prawda, zużywano na nie 3/4 produkowanej wówczas folii aluminiowej, ale działały. Skuteczne bombardowania, w tym zniszczenie Hamburga, pomogły aliantom odwrócić los wojny na froncie zachodnim.

Wraz z końcem II wojny światowej Terman wrócił na Stanford. Został dziekanem Wydziału Inżynierii. Niestety, ta uczelnia nie prowadziła badań wojskowych, a Terman miał przekonanie, że się marnuje...

Zamiast narzekać, zaczął więc prowadzić grupę badawczą zajmującą się mikrofalami i radarami. Czas na to nie mógł być lepszy. Żelazna kurtyna podzieliła świat na dwie części. Wbrew poglądom rodem z opowieści o Jamesie Bondzie, szpiegom nie jest łatwo przeprawić się przez rosyjską tajgę i tundrę. Jeszcze trudniej dowiedzieć się, gdzie są bazy wojskowe. Ale gdyby zbierać sygnały radiowe, z pomocą nauki można by znaleźć ich położenie...

Istniało niewiele zespołów, które potrafiły rozwiązać ten problem. Jeden z najlepszych był właśnie na Stanfordzie. Podsłuchiwanie fal radiowych stało się jednym z najprężniejszych działów amerykańskiego wywiadu. Terman doskonale o tym wiedział. Widział też, że milionowe granty dla naukowców z MIT niewiele pomogły tej uczelni. Wojsko i wywiad były niczym czarna dziura: wciągały ludzi, rzadko kto wracał na uczelnię. Postanowił spróbować działać w innym modelu. Postanowił, że zamiast zamkniętych ośrodków będą powstawały firmy, konkurujące o zlecenia dla wojska. By ułatwić im życie, stworzył w 1951 roku park technologiczny obok uczelni. Co więcej, zachęcał badaczy ze Stanfordu do zakładania firm i pracy w firmach. To miało pomóc w ich karierze naukowej, a nie być dla niej alternatywą.

Ten model pracy był rewolucyjny i odniósł olbrzymi sukces. Okazał się dużo skuteczniejszy niż zamykanie naukowców za czterometrowym płotem. Swobodny przepływ ludzi i pomysłów stał się źródłem sukcesu wielu firm (m.in. Hewlett-Packard).

Narodziny

Za drugiego ojca Doliny Krzemowej, obok Fredericka Termana, uważa się Williama Shockleya. W trakcie II wojny światowej uczestniczył w pracach nad radarami. Był także autorem oszacowań strat, na wypadek, gdyby USA dokonało inwazji na Japonię w 1945 roku. To na podstawie tych szacunków podjęto decyzję o zrzuceniu bomb atomowych na Hiroshimę i Nagasaki...

Po zakończeniu wojny Shockley pracował w Bell Labs, ośrodku naukowym skupiającym najwybitniejszych ludzi z tej epoki. Pracowali nad czymś, co mogłoby zastąpić lampę elektronową.

Już wtedy istniały pierwsze komputery. Ich kluczowym składnikiem był „przełącznik” – coś, co działa jak zawór z wodą. Pozwala niewielkim wysiłkiem sterować czymś dużo potężniejszym. Pierwsze maszyny liczące były w pełni mechaniczne, jednak działały wolno i często ulegały awariom. Funkcjonalnością nie przewyższały dzisiejszych kalkulatorów.

Jednym ze żmudnych zadań obliczeniowych było przeliczanie tablic dla artylerii. Pozwalały one szacować, jak skutecznie celować we wroga. Na ich potrzeby powstał pierwszy w pełni elektroniczny i programowalny komputer ENIAC (1946 rok) – jego „przełącznikiem” były lampy elektronowe. Lampy przepalały się i zużywały dużo prądu, ale nie było lepszego elementu.

William Shockley wraz ze swoją ekipą skonstruował lepszy „przełącznik” – tranzystor zbudowany z germanu (1947 rok). Jednak despotyczny charakter wynalazcy stanowił przeszkodę w karierze. Obrażony na współpracowników przeniósł się do Kalifornii. Tam założył Shockley Semiconductor Laboratory (1956 rok), gdzie postanowił opracować i skomercjalizować tranzystor z krzemu.

Zatrudnił zdolnych naukowców ze Stanfordu, ale jego paranoiczno-despotyczny styl zarządzania był trudny do zniesienia. Co gorsza, wymyślił diodę Shockleya i to na niej skupił swoją uwagę. W końcu ośmiu młodych zdolnych zbuntowało się i postawiło ultimatum: my albo Shockley.

Przegrali, ale założyli swoją firmę Fairchild Semiconductors. Wkrótce udało im się opracować dużo lepsze tranzystory krzemowe. Stworzyli też pierwszy komercyjny układ scalony. Od tej pory tworzenie układów scalonych przypomina drukowanie: na waflu krzemowym wytrawia się zaprojektowany układ. Ten proces był dużo tańszy i umożliwiał ciągły postęp przez zwiększanie precyzji i zmniejszanie elementów.

Firma Fairchild Semiconductors zaczęła zarabiać krocie na swoich wynalazkach. Co więcej, stworzyła grupę nowych firm, które projektowały schematy układów scalonych. Dzięki dobremu modelowi współpracy twórców z inwestorami nowe firmy wyrastały w Dolinie Krzemowej jak na drożdżach.

W 1965 roku Gordon Moore z Fairchild Semiconductors stwierdził, że co 18 miesięcy liczba elementów na jednej płytce krzemowej podwaja się. Przewidywał, że ten trend utrzyma się przez co najmniej 10 lat, ale sprawdza się on od ponad pół wieku.

W 1968 roku w wyniku kłótni z Fairchild Semiconductors zwolniło się dwóch z ośmiu uciekinierów od Shockleya: Robert Noyce i właśnie Gordon Moore. Razem założyli firmę Intel. W 1971 roku zaprojektowali pierwszy procesor, który w całości mieścił się na jednej płytce krzemowej. Inni uciekinierzy z Fairchild Semiconductors założyli firmę AMD math

W latach 70. pomiędzy San Francisco a San Jose działało mnóstwo firm tworzących układy scalone i urządzenia z nich zbudowane. Na ich cześć dziennikarze opisali ten fenomen jako Dolina Krzemowa. Prawdopodobnie nawet nie śnili, że to był dopiero początek historii tego miejsca.

Lata 60. i 70. to nie tylko czas bezdusznych maszyn. To także ruchy hipisów, wolnej miłości i wzrost popularności narkotyków. W tym rejonie były one szczególnie widoczne. Działało tu dużo pseudonaukowych grup badających wpływ LSD na organizm. To były też czasy protestów przeciwko wojnie w Wietnamie. Panowała niepohamowana chęć zmieniania świata.

Jednym z buntowników był Steve Jobs. Wyznawca buddyzmu, tygodniami poddawał się radykalnym dietom (np. jedząc tylko jabłka i marchewki). Pracował dla Atari, ale nie miał oporów, by uciec na rok do Indii w podróż duchową. Co gorsza, rzadko się mył i nie używał dezodorantów, przekonany, że jego dieta chroni przed przykrymi zapachami.

Odrzucony przez wielu, zaprzyjaźnił się z genialnym inżynierem Stevem Wozniakiem. Razem chcieli zbudować komputer, w czym większy technicznie udział miał Wozniak, ale to Jobs dostrzegł potencjał biznesowy. Nie było to niezwykle oryginalne, istniało już sporo komputerów przeznaczonych dla firm, ale ich ceny były poza zasięgiem zwykłych śmiertelników. Unikalny był właśnie pomysł, żeby sprzedawać komputery zwykłym ludziom. To tak, jakby ktoś dzisiaj chciał sprzedawać samoloty jako normalny środek komunikacji.

Ich pierwszy komputer Apple I był zaledwie zlutowaną płytką, ale szybko zrozumieli, że muszą mieć kompletny produkt. Kolejne dzieło, Apple II, nie miało świetnych parametrów technicznych. Za to było skonstruowane niesamowicie oszczędnie. Dzięki temu końcowa cena była przystępna. Na rynek trafił w roku 1977.

Apple II miał jeszcze jedną istotną cechę. Był sprzedawany wraz z interpreterem języka BASIC. Od tej pory każdy mógł pisać programy. W 1979 roku powstał VisiCalc – pierwszy arkusz kalkulacyjny. Narzędzie niesamowicie przydatne księgowym, prawnikom i innym specjalistom operującym liczbami, które nie istniało wcześniej na papierze. To była aplikacja, która zmieniła podejście ludzi. Komputer to narzędzie dla wszystkich, nie tylko dla inżynierów.

Apple II osiągał rekordową sprzedaż. Oprogramowanie przestało być pisane tylko na zlecenie bogatych firm, a zaczęło być także sprzedawane w sklepach. Powstała nowa klasa firm tworzących oprogramowanie...

Podkupywanie pracowników, kłótnie o władzę w firmach, czy po prostu chciwość były w tym miejscu motorem wzrostu. Paliwem do tego silnika były pieniądze inwestorów. Początkowo pieniądze wykładali bogaci przedsiębiorcy. Wejście Apple na giełdę w 1980 roku sprawiło, że ponad 300 osób stało się milionerami. To otworzyło oczy innym inwestorom i sprawiło, że zaczęły powstawać liczne firmy ventures capital, zajmujące się wyłącznie inwestowaniem w nowe spółki technologiczne. Najbardziej prestiżowe mają siedziby przy Sand Hill Road – drodze łączącej Stanford z autostradą.

W sieci

Od zawsze ludzkość marzyła, by połączyć cały świat. Telegraf i telefon po części spełniły te pragnienia, ale miały swoje wady. Były scentralizowane, podatne na awarie, a zestawienie połączenia trwało całkiem długo. Pojawienie się komputerów tylko zwiększyło zapotrzebowanie. Mechaniczne spinanie przewodów przestało wystarczać.

W 1961 roku po raz pierwszy opublikowano artykuł z wizją danych przesyłanych w pakietach, które będą kierowane przez oprogramowanie, a nie fizyczne przełączenia. Na bazie tego pomysłu powstała w 1969 roku sieć ARPAnet. W pierwszej wersji składała się z 4 komputerów, z czego 3 znajdowały się w Kalifornii.

Ta sieć nie spotkała się początkowo z dużym entuzjazmem. Większość badaczy była zdania, że lepiej pracować nad niezawodnością łączy telefonicznych. Podwójne przewody między centralami, złote styki i inne usprawnienia pomagały. Nie naprawiało to głównego problemu: awaria dowolnego elementu na linii komunikacji zrywała połączenie.

ARPAnet był projektowany inaczej. Zakładano, że każdy komponent może zawsze zawieść. Stąd dużo uwagi poświęcono na retransmisje i szukanie alternatywnych ścieżek. Na wypadek, gdyby któryś z elementów zawiódł, wiadomość mogła dotrzeć inną drogą.

Ten pomysł spodobał się agencji rządowej USA, finansującej badania na rzecz wojska. Trwała zimna wojna i symulacje wykazywały, że w razie ataku atomowego przestaną działać telefony. Pomimo iż nie był to główny cel projektantów ARPAnet, ich sieć była dużo lepiej przygotowana na wypadek totalnej katastrofy. To przekonało agencję ARPA do finansowania badań.

Sieć ARPAnet cały czas powiększała się. W 1982 roku powstały protokoły TCP/IP, obecnie powszechnie używane w Internecie. Sieć zaczęła oplatać świat. Pod względem technicznym działała sprawnie, ale była mało przyjazna dla użytkowników.

Problem ten dostrzeżono w europejskim ośrodku badawczym CERN. Pracował w nim Tim Berners-Lee, który miał pomysł, jak ułatwić wymianę danych. Wymyślił, by tworzyć dokumenty z hiperlinkami – odnośnikami pozwalającymi wygodnie przeskakiwać pomiędzy dokumentami. W 1991 roku zrealizował swoją wizję, stworzył protokół HTTP, format HTML oraz tekstową przeglądarkę. To był początek World Wide Web, która błyskawicznie podbijała świat.

Jednak interfejs tekstowy w latach 90. to było za mało. Już w latach 70. Xerox PARC opracował podstawy współczesnych interfejsów graficznych, ale nigdy nie udało im się stworzyć dobrego produktu. W 1979 roku w zamian za korzystnie sprzedane akcje Apple pozwolono zespołowi Steve Jobsa odwiedzić firmę i pokazano ich produkty. Pracownicy Apple skopiowali to, co zobaczyli. W latach 80. wypuścili dwa komputery z systemem graficznym: Lisę i Macintosha. Mała firma spod Seattle, Microsoft, wzorując się na ich osiągnięciach, również stworzyła swój system graficzny...

Pierwszą przeglądarką graficzną WWW była Mosaic w 1993 roku, ale to Netscape (1994 rok) i Internet Explorer (1995 rok) zdobyły popularność. Dzięki nim nowe strony zaczęły pojawiać się jak grzyby po deszczu. Mnóstwo firm zrozumiało, że Internet będzie nowym medium, kanałem sprzedaży i rozrywki...

Inwestorzy dostrzegli ten trend. Od 1997 roku, zachęceni szybkim rozwojem Internetu, zaczęli finansować nowe przedsiębiorstwa na niespotykaną dotąd skalę. Na giełdę często wchodziły firmy istniejące zaledwie 12 miesięcy. Łatwo było dostać pierwszą rundę finansowania. Nawet doświadczenie informatyczne nie było konieczne, by otrzymać tak parę milionów dolarów. Boo.com, pets.com, Webvan to tylko niektóre z tych szalonych firm.

Powstały też firmy o stabilnym modelu biznesowym, np. Yahoo, Google i eBay. Jedną z rentownych firm był PayPal, oferujący płatności internetowe. Przynosił zyski i w 2000 roku rozważał ofertę kupna złożoną przez eBay. Większość akcjonariuszy uważała, że wycena jest za niska, wyższą osiągały firmy wydmuszki, ale prezes Peter Thiel nie odzywał się podczas debaty. Na koniec wykrzyknął, że zbliża się kres wielkiej bańki i lada chwila wszystko się załamie. Przekonał resztę do sprzedaży.

Jeszcze tego samego miesiąca kursy spółek technologicznych załamały się. Mnóstwo firm bankrutowało, ponieważ zostały odcięte od pieniędzy inwestorów, a nigdy nie przynosiły zysków. Firmy, które przetrwały, zaczęły oszczędzać. Zamiast kupować drogie rozwiązania czy tworzyć własne, często współpracowały ze sobą, wymieniając się kodem źródłowym. Tak m.in. powstał serwer HTTP Apache. Rozwijał się ruch open source.

W latach 1995-2000 większość inwestorów dokonywała po kilka dużych inwestycji. Ron Conway postępował inaczej. Inwestował niewielkie sumy, ale w bardzo wielu spółkach. Jego pierwszy fundusz z 1998 roku przyniósł siedmiokrotny zysk. Drugi z 1999 roku był bliski porażki. Większość ze stu firm, w jakich miał udziały, zbankrutowała. Jedna z tych, które przetrwały, nazywała się Google. Pomimo kiepskiej koniunktury, udziały w tej jednej spółce wystarczyły, by pokryć wszystkie straty i dać przyzwoity zarobek.

Później inni zaczęli naśladować strategię Rona Conwaya. Okazała się wyjątkowo skuteczna. Np. Peter Thiel zainwestował niewielką kwotę w Facebooka. Obecnie ten serwis ma ponad 800 mln aktywnych użytkowników.

Opowieść o Dolinie Krzemowej jeszcze się nie kończy. To tu przecież powstał iPod, iPhone i iPad. Opracowano też Android. Tak rozpoczęła się kolejna rewolucja – upowszechnienie urządzeń mobilnych. Wydarzenia te można śledzić w bieżących wiadomościach...

To miejsce pamięta historie przełomowych odkryć i chybionych prognoz. Wielkich firm i spektakularnych upadków. Znanych marek i anonimowych kur znoszących złote jaja. Coś tkwi w tej atmosferze, co każe rzucać dobrze płatną pracę i tworzyć nowe firmy, pracując po kilkanaście godzin dziennie. Co będzie następną wielką rewolucją? Elektryczne samochody? Nowy typ baterii słonecznych? Gry społeczne? Nowa kategoria oprogramowania? Samochód, który sam jeździ? Nowe urządzenie mobilne? Wszystkie wymienione przedsięwzięcia już działają w Dolinie Krzemowej.

Następne odcinki już wkrótce. Na pierwszych stronach gazet.