Co to jest?
Nanotechnologia
Postęp w technice nie może odbywać się bez nowych technologii. Wielkie epoki w historii cywilizacji nazwane zostały od materiałów, które ludzie nauczyli się obrabiać i wykorzystywać (co często wiązało się z wynalezieniem nowych technik produkcji) – epoka kamienia, brązu, żelaza, pary. Nie wiemy jeszcze, pod jaką nazwą w historii znajdzie się przełomowy wiek XX – czy będzie to wiek krzemu, elektroniki czy informatyki.
Równie pojemnym pojęciem jest „nanotechnologia” – słowo to na początku XXI wieku jest używane do określenia najbardziej zaawansowanych technicznie możliwości projektowania, tworzenia, manipulowania i wykorzystania materii – dzięki precyzyjnym możliwościom kontroli w niezwykle małej skali „nano”.
Przedrostek „nano” oznacza po prostu (jedną miliardową część). W nanotechnologii chodzi o rozmiary rzędu – niezależnie od tego, jakich struktur to dotyczy – biologicznych, wytwarzanych metodami fizyki czy chemii. Dlatego też przedrostek „nano” jest dalej wykorzystywany do tworzenia kolejnych neologizmów – nanocząstek, nanorurek, nanodysków, nanonauki itp. (autor słyszał nawet dość kuriozalne słowo nanonaukowiec). Nanometr to dość mało: stosunek wielkości typowej nanocząstki do rozmiarów piłki futbolowej jest taki jak stosunek wielkości piłki do rozmiarów Księżyca!
Drugim składnikiem słowa nanotechnologia jest „technologia”, które z języka angielskiego powinno być raczej tłumaczone jako „technika”, chodzi tu więc raczej o projektowanie, kontrolę, badania, charakteryzację, a nie tylko o samą technologię wytwarzania. Zdobycze nanotechnologii wykorzystujemy na co dzień, nie zastanawiając się nad wirtuozerią techniczną niezbędną do konstrukcji procesorów, które obecnie montowane są nie tylko w komputerach i telefonach, ale i w urządzeniach AGD, samochodach, kartach płatniczych, a nawet na metkach sklepowych (w tzw. technologii radiowej identyfikacji RFID). Rozmiar najmniejszych elementów procesorów – tranzystorów – wynosi około kilkudziesięciu nanometrów. Na przykład, współczesne procesory firm Intel i AMD tworzone są w tzw. technologii 32 nm, co oznacza, że bramka w tranzystorze ma właśnie szerokość 32 nm. To mniej niż rozmiary najmniejszych wirusów. Na jednej naszej krwince czerwonej moglibyśmy nadrukować ponad 400 tranzystorów, na czubku włosa – kilka tysięcy (a to już by pozwoliło na pracę kalkulatora).
Właśnie postęp w elektronice sprawił, że na początku XXI w. zaczęto zajmować się nanotechnologią zupełnie poważnie. Wiąże się to z empirycznym prawem rozwoju technologii krzemowej sformułowanym w 1965 r. przez Gordona Moore’a, jednego z założycieli firmy Intel. Prawo to stwierdzało, że co 2 lata (obecnie co 18 miesięcy) liczba komponentów w układach cyfrowych (tranzystorów, połączeń itp.) podwaja się. Obecnie mamy do dyspozycji około tranzystorów w nowoczesnych procesorach, zaś sam koszt pojedynczego tranzystora jest teraz mniejszy od 10 nano-dolarów – mniej niż wydrukowanie pojedynczej litery dowolną techniką (długopisem, ksero, czy za pomocą maszyny drukarskiej). Skoro zaś same układy scalone się nie powiększają (typowy procesor jest rozmiaru paznokcia), oznacza to, że mamy równocześnie do czynienia z równie szybką miniaturyzacją. Co więcej, jak kiedyś dało się przewidzieć nadejście nanotechnologii, tak teraz możemy przewidzieć, że dekada 2020–2030 powinna być dekadą urządzeń, których działanie w pełni będzie oparte o prawa mechaniki kwantowej. W tej chwili procesy kwantowe, np. tunelowanie, stanowią raczej przeszkodę niż pomoc w działaniu tranzystorów.
Współczesna technologia krzemowa jest podstawą całych gałęzi gospodarki – to nie tylko komputery, telefony i aparaty cyfrowe, ale także rozrywka (filmy animowane, efekty specjalne, gry), wydajne operacje numeryczne (symulacje, bilingi, transakcje), nowe usługi bankowe i telekomunikacyjne itp. Typowy czas potrzebny na napisanie np. nowej gry to od 3 do 5 lat. Zatem jak cały projekt się zaczyna, to na rynku nie ma jeszcze takich komputerów (procesorów, kart graficznych), na których ta gra mogłaby zostać uruchomiona (to samo dotyczy systemów operacyjnych – opóźnienie w premierze znanego systemu operacyjnego wiązało się z opóźnieniem we wprowadzaniu dwuprocesorowych komputerów, na których system działałby w miarę płynnie). Przemysł (tak komputerowy, jak i AGD czy rozrywkowy) potrzebuje planowania. Dlatego prawo Moore’a – mimo że nie jest prawem przyrody, a jedynie samospełniającą się przepowiednią – jest pilnie śledzone przez wiele branż. Istnieją specjalne organizacje (np. SEMATECH – międzynarodowe konsorcjum producentów półprzewodników), które śledzą rozwój, publikują raporty, a przede wszystkim starają się odpowiednio wcześnie wypatrzyć przeszkody pojawiające się na kolejnych etapach miniaturyzacji. Gęstsze upakowanie komponentów rodzi trudności nie tylko ze stworzeniem odpowiednich układów. Na przykład, w fotolitografii będącej podstawowym narzędziem służącym do nanoszenia wzorów układów scalonych na powierzchnię krzemu, rozmiar 32 nm oznacza, że musimy używać światła tzw. dalekiego ultrafioletu, które jest intensywnie pochłaniane przez większość materiałów. To sprawia, że proces musi odbywać się w próżni, obrazowanie musi być robione przy użyciu luster (bo każda maska lub soczewka pochłania światło UV). Problemem jest jakość podłoży (np. atomowa precyzja oszlifowania kryształu krzemu o średnicy 30 cm), długość dyfuzji domieszek w zminiaturyzowanych układach, a także odprowadzanie ciepła z układów pracujących z częstotliwością rzędu gigaherców. To wszystko sprawia, że gdy tylko przemysł półprzewodnikowy natrafia na przeszkody, uruchamiane są we wszystkich wysoko rozwiniętych krajach ogromne pieniądze na badania (do 2005 r. przemysł półprzewodnikowy przeznaczył około biliona dolarów na badania naukowe). Zatem gdy tylko w latach 90. XX wieku pojawiły się problemy związane z miniaturyzacją do nanoskali, pojawiły się też środki na badania.
Drugim powodem, dla którego nanotechnologia rozkwitła na początku XXI w., jest zaawansowanie metod badawczych – przede wszystkim mikroskopowych. Zwykłe mikroskopy elektronowe pokazują obiekty wielkości mikronów. Takie, które umożliwiłyby wgląd w materię z dokładności atomową, były do niedawna niezwykle drogie. Jednak technologia się z czasem upowszechniła i coraz więcej laboratoriów stać na takie urządzenia. Podobnie z różnego rodzaju mikroskopami skaningowymi: tunelowym, sił atomowych i ich licznych obecnie odmian. Chociaż te urządzenia są także bardzo drogie, ich ceny wyraźnie spadają. Pozwoliło to np. Uniwersytetowi Warszawskiemu na zakup mikroskopu tunelowego dla pracowni studenckiej Wydziału Fizyki.
Ważnym elementem rozwoju nanotechnologii były doświadczenia naukowców – fizyków i chemików, którzy od lat 70. badali struktury niskowymiarowe, jeszcze zanim słowo „nanotechnologia” stało się takie modne. Najpierw były to studnie kwantowe (obiekty dwuwymiarowe), potem druty (jednowymiarowe) i kropki kwantowe (zlokalizowane). Dzięki temu wiadomo było, jakich zjawisk w skali nano można poszukiwać i jakie są własności optyczne lub elektryczne nanoobiektów.
Na to wszystko nałożył się ogromny postęp w syntezie chemicznej. Chemicy potrafią obecnie precyzyjnie syntetyzować nanoobiekty określonej wielkości lub kształtu, modyfikować ich powierzchnię poprzez dołączanie innych molekuł o określonych właściwościach chemicznych lub biologicznych (proces ten nazywamy funkcjonalizacją). Kropki kwantowe – „zerowymiarowe” struktury początkowo tworzone na powierzchni półprzewodnika – można także utworzyć w stanie „swobodnym”, niezwiązanym z żadnym podłożem. Chemiczna synteza takich nanoobiektów jest dużo łatwiejsza i tańsza niż pracochłonne procesy litograficzne albo tworzenie kropek na powierzchni kryształu w procesie samoorganizacji. A potem takie swobodne kropki można nanieść na inną powierzchnię, dzięki czemu możemy zmodyfikować własności materiału – w zależności od pokrycia może on się stać hydrofobowy lub hydrofilowy, może zyskać zdolności katalizowania reakcji chemicznych itp. Okazało się, że czasem wystarczy sama nanostrukturyzacja powierzchni (prawda, jak wygodny jest przedrostek „nano”?), żeby dana powierzchnia zaczęła kleić się do wszystkiego jak stopy gekona.
Nanotechnologia znalazła swoje zastosowanie w naukach biologicznych i medycznych. Bardzo dobrym przykładem jest obrazowanie struktur komórkowych za pomocą nanocząstek. Większość obiektów biologicznych jest przezroczysta dla światła, można więc użyć specjalnych barwników do zaznaczenia miejsc z jakiegoś powodu interesujących badacza – fragmentów preparatu lub całych komórek. Nanocząstki zwykle są trwalsze od molekuł chemicznych i można je sfunkcjonalizować tak, by trafiały w żądane miejsca. Może to zostać wykorzystane w diagnostyce i terapii medycznej.
Przykładem nietypowej terapii za pomocą nanocząstek jest wykorzystanie nanomagnesów do lokalnego niszczenia komórek nowotworowych. Poprzez wprowadzenie nanocząstek w odpowiednie miejsce (dzięki funkcjonalizacji chemicznej albo za pomocą pola magnetycznego) można – poprzez ich szybkie przemagnesowywanie w zmiennym polu magnetycznym – podnieść lokalnie temperaturę tkanek, co prowadzi do ich zniszczenia (w przypadku np. raka mózgu wystarczy temperatura ok. ).
Manipulowanie obiektami w skali nano umożliwiło badanie nowych zjawisk. Przykładem jest tu fotonika (i jej odmiany, takie jak np. plazmonika). Nanomateriały ułożone w regularne wzory, tworzące sztuczne kryształy, pozwalają na precyzyjne kierowanie światłem. Można falę świetlną – mającą w próżni długość ok. 500 nm – upchnąć w strukturze fotonicznej o rozmiarach kilkudziesięciu nm, a następnie tym światłem pokierować, uwięzić, przesłać pod kątem prostym do kierunku wejściowego itp. Sterowanie światłem odbywa się dzięki uwięzieniu pola elektrycznego w sieci tzw. kryształu fotonicznego (naturalnymi takimi kryształami są opale). Kryształy fotoniczne są przykładem szerokiej klasy tzw. metamateriałów (albo materiałów funkcjonalnych), które zostały zaprojektowane przez człowieka do wykonywania ściśle określonych zadań. Ciekawym przykładem są poszukiwania materiałów o tzw. ujemnym współczynniku załamania światła. Fala elektromagnetyczna załamuje się na granicy takich ośrodków zupełnie inaczej niż w tradycyjnych materiałach. Uzyskanie takich materiałów pozwoliłoby na stworzenie czapki-niewidki, która byłaby opływana przez światło w taki sposób, że jej zawartość byłaby zupełnie niewidoczna (jak kamuflaż Predatora). Materiał spełniający to zadanie w świetle widzialnym wymaga struktur wielkości nanometrowej.
Z rozwojem nanotechnologii wiążą się także zagrożenia. W popkulturze nanotechnologia stała się synonimem czegoś bardzo zaawansowanego technicznie, ale jednocześnie niebezpiecznego, gdy wymknie się spod kontroli. Jedną z osób, które wywarły ogromny wpływ na rozwój nanotechnologii, był Kim Eric Drexler, który w roku 1986 w książce „Engines of Creation” przestrzegał przed stworzeniem samopowielających się nanorobotów, które zmieniłyby całą dostępną materię w swoje kopie (szarą maź, „Grey Goo”). Wizja ta nie była wcale odległa od wizji autorów science-fiction. Stanisław Lem w książce „Wizja lokalna” (1983 r.) opisał cywilizację z jednej strony kontrolującą, ale jednocześnie będącą pod kontrolą „bystrów” – dziś byśmy powiedzieli nanorobotów. Do realizacji stworzenia sztucznych urządzeń o takiej złożoności jest jeszcze bardzo daleko, ale nanotechnologia jest jeszcze dosyć młoda, trzeba więc zwracać baczną uwagę na zagrożenia z niej wynikające. Z drugiej strony, organizmy żywe od wieków były narażone na oddziaływania z nanocząstkami – np. fullereny i nanorurki węglowe można znaleźć w zwykłej sadzy, nano-ZnO jest składnikiem różnych maści, a nanokryształy węglanu wapnia są znajdowane w wielu zdrowych tkankach człowieka.
Nanotechnologia wymaga połączenia wiedzy z różnych dziedzin nauki. Na Uniwersytecie Warszawskim otwarto studia licencjackie (a od 2012 r. także magisterskie) na makrokierunku „Inżynieria nanostruktur”. Uczestniczą w nim Wydział Fizyki i Wydział Chemii Uniwersytetu Warszawskiego. Słowo makrokierunek (akurat w tym przypadku przedrostek „nano” byłby niestosowny) oznacza, że absolwenci IN zdobywają wiedzę zarówno z chemii, jak i z fizyki. Od 2010 r. nowi studenci uzyskali możliwość ubiegania się o stypendium na tzw. kierunkach zamawianych. Tych stypendiów w 2010 r. było 25 (po 1000 zł miesięcznie), a w 2013 r. będzie ich 27. Istnieje limit przyjęć – 60 osób. Z założenia tego typu ambitne kształcenie nie może być nigdy masowe. Studenci w trakcie swoich studiów licencjackich już na II roku będą pracowali na „prawdziwych” urządzeniach do badań nanomateriałów, w laboratoriach i grupach badawczych. Zamiast więc powiększać liczbę studentów UW będzie wybierał najzdolniejszych kandydatów, którzy sprostają ambitnemu programowi. Już w tej chwili przyszłymi absolwentami IN interesują się instytuty naukowe oraz firmy technologiczne. Nanotechnologia po prostu nie jest tylko „technologią przyszłości” – możemy korzystać na co dzień z produktów „nano”, ale potencjał, jaki mają w sobie nanoobiekty, wystarczy na wiele lat badań.