CENTRUM B7

HELPUJ

HELPUJ

Pomóż, ratuj, wesprzyj, 
jednym słowem, no dobrze, neologizmem, HELPUJ!

Wykłady i warsztaty zrealizowane zdalnie

HELPUJ: mec. Jakub Walawski - Koszty działalności gospodarczych
HELPUJ: Łukasz Lenda - LOGO i identyfikacja wizualna firmy.
HELPUJ: LOGO w aspekcie prawnym, mec. Jakub Walawski, Łukasz Lenda.
HELPUJ: Jolanta Urbaniec - Młodzi przedsiębiorcy.
HELPUJ: Jakub St. Gajda - Pierwsze kroki przedsiębiorcy w internecie.
HELPUJ: Joasia Urbaniec - Współpraca przedsiębiorcy z NGO oraz z miastem.

Artykuły naukowe o nowych technologiach

Sztuczna inteligencja
Metody badawcze w informatyce

Piotr Bałazy

Pojęcie sztucznej inteligencji towarzyszy nam już od lat 50 XX wieku kiedy to powstało pierwsze laboratorium AI na Uniwersytecie Carneige Mellon a John McCarthy zdefiniował tym sformułowaniem „konstruowanie maszyn, o których działaniu dałoby się powiedzieć, że są podobne do ludzkich przejawów inteligencji”. Od tego czasu nauka o AI diametralnie się rozwinęła zarówno dzięki rozwojowi technologicznemu, jak i wielu nowym tezom i odkryciom w tej dziedzinie.

1. Przegląd tematyki
1.1. Czym jest sztuczna inteligencja?[1, 2]

Aby w pełni zrozumieć czym zajmuje się ta prężnie rozwijająca się dziedzina informatyki należy najpierw zapytać się co rozumiemy pod pojęciem „sztucznej inteligencji”? Pierwszy człon nie sprawi nam najmniejszego problemu: sztuczna (ang. artificial) oznacza nienaturalny, niezgodny z naturą bądź też imitujący coś naturalnego, wytworzony przez człowieka. Jest to kluczowe w zrozumieniu AI, gdyż jest ona z definicji czymś nienaturalnym i abstrakcyjnym; staramy się jedynieimitować ludzką inteligencję, odtworzyć ją jedynie za pomocą znanych nam szczegółów dotyczących ludzkiego umysłu. Ciekawszym jednak zagadnieniem jest drugi człon tego określenia, czyli właśnie inteligencja.

Istnieje wiele definicji tego pojęcia, każda kolejna starająca się opisać zagadnienie z innej strony;

generalizując jednak możemy ją opisać jako „umiejętność postrzegania informacji oraz wyciągania

z niej wniosków, a także przechowywania jej jako wiedzy do zastosowania w podobnej sytuacji

[3]

. Opis ten jest trafny, niemniej jednak jest on również ogólny, dlatego spójrzmy

bądź kontekście”
na definicję sztucznej inteligencji wg Kaplana oraz Haenlein’a: „Jest to zdolność systemu do prawidłowej interpretacji danych zewnętrznych, uczenia się na podstawie tych danych i wykorzystywania ich do osiągnięcia określonych celów i zadań poprzez elastyczne dostosowanie”. Porównując te dwie definicje możemy zauważyć że definicja inteligencji samej w sobie opiera się na przetwarzaniu danych w dowolnej sytuacji, natomiast sztuczna inteligencja opiera się bardziej naokreślonych zadaniach. Stąd też możemy zagłębić się w dwa nurty sztucznej inteligencji: podejścia

symbolicznego oraz podejścia subsymbolicznego, w literaturze anglojęzycznej zwanego mianem „weak / strong AI”.

1.2. Podejście symboliczne [3, 5]

Podejście symboliczne, jak sama nazwa wskazuje, opiera się na odpowiednim operowaniu symbolami. Jednak podobnie jak w matematyce, same symbole (na przykład dodawania czy mnożenia) nic nie znaczą bez odpowiednich danych oraz zasad, według których symbole te będą stosowane. „Słabe” AI jest więc swoistym zestawem zasad, reguł oraz symboli które, dzięki manipulacji danymi, mogą dawać nam nowe dane na których bazie możemy kontynuować wykonywany proces. Świetnym przykładem jest koncept programowania obiektowego
stosowanego w takich językach jak Java czy też C#. Według tego paradygmatu wszystko co istnieje możemy wyrazić za pomocą obiektów (czyli reprezentacji fizycznych przedmiotów lub cech w wirtualnym świecie) oraz metod, czyli opisu zachowań naszych obiektów. Obiekty mogą składać
się z innych obiektów (tak jak samochód składa się z silnika, nadwozia czy kół, które z kolei składają się z opony, hamulca etc.) oraz mogą prowadzić między sobą interakcje za pomocą metod (zderzenie dwóch samochodów). Podejście to dominowało na początku powstawania sztucznej inteligencji gdyż wierzono że zapis symboliczny, będąc podobny do mowy oraz myślenia ludzkiego, jest kluczem do dobrego AI. Przykładem tego rozumowania jest rozmowa o drzewie: gdy pada

hasło „drzewo” obaj rozmówcy mają w myślach dwa zupełnie różne drzewa. Nie ma to natomiast znaczenia, gdyż jest ono symbolem, a nie obiektem ze świata rzeczywistego. Skutki tego myślenia odczuwamy do dzisiaj: istnienie wcześniej wspomnianego programowania obiektowego czy też wyszukiwarka plików w naszym systemie; z danych jakie podamy na wejściu otrzymamy zawsze jakieś dane wyjściowe. Jest to wypadkową symbolicznego AI, gdzie komputer przyjmuje symbole w postaci liter, przetwarza je a następnie podaje nam wynik w postaci listy plików które mają w swojej nazwie słowo „zdjęcie” (w przypadku systemowej wyszukiwarki plików). Niemniej jednak tu ukazują się również wady takiego podejścia. Wspomniałem przed chwilą o wyszukaniu plików zatytułowanych „zdjęcie”, nie wspomniałem jednak o typie tego pliku. „Dobre” AI zrozumiałoby że chodzi mi jedynie o pliki graficzne a pominęłoby dźwiękowe czy filmy, lecz nie jest tak w przypadku „słabego” AI: jest ono zaprogramowane aby nie rozpoznawać wpisywanych danych, jedynie aby zwracać dane o podobnej nazwie. Takie podejście jest niesamowicie wąskie oraz zamknięte na nowe możliwości. Lepszym przykładem będzie rozpoznawanie zdjęć kota: jeśli stworzymy symboliczne AI które będzie sprawdzało czy podane zdjęcie kota będzie podobne do naszego kota będzie ono z góry skazane na porażkę. Symboliczne AI będzie porównywało podane zdjęcie piksel po pikselu z oryginałem. Jeśli znajdzie się odmienny piksel, program zwróci nam

brak podobieństwa. Można dodać takiemu AI funkcjonalności podając do jego „bazy wiedzy” więcej zdjęć naszego kota z różnych stron i pod różnymi kątami, jednak nawet milion takich zdjęć nie wystarczy, aby w pełni go udokumentować tak, aby nasze AI rozpoznawało go z każdej możliwej strony. A pamiętajmy: mówimy tu tylko o jednym kocie a nie o programie który potrafi rozpoznawać podobieństwo między dwoma jakimikolwiek obrazkami. Dlatego też najnowsze technologie wymagające myślenia bardziej „ludzkiego” a mniej „zero-jedynkowego” są tworzone dzięki AI subsymbolicznemu, które nie jest odgórnie ograniczone zasadami oraz schematami w obrębie których może się ono poruszać.

1.3 Podejście subsymboliczne[4, 5]

Podejście subsymboliczne, czyli tak zwane „strong AI” jest drugą „kategorią” sztucznej inteligencji i jest to obecnie główna gałąź rozwoju tych technologii. Podejście to opiera się nie na puli wąskich ścieżek które dają określone efekty ale są bardziej zbliżone do działania ludzkiego mózgu; sieci połączonych ze sobą neuronów które współpracując dają nie tylko odpowiedź poprawną, ale również potrafią dostosować się do nowych i wcześniej nie przewidzianych sytuacji na podstawie zarówno wiedzy jak i podobnych doświadczeń. Jest to główna cecha subsymbolicznego AI różniąca go od AI symbolicznego: potrafi ono wyjść poza schemat działania i na podstawie podobnych sytuacji zaadaptować się do nowych. Ciekawym aspektem jest to, że takie podejście wychodzi z założenia iż nie musimy „karmić” naszego AI wiedzą. Wręcz przeciwnie: dajemy mu niewielką ilość wiedzy i pozwalamy mu się uczyć samemu, dzięki temu wyciąga najlepsze (dla niego) wnioski. „Silne” AI jest dlatego o tyle szybsze o ile mniej zrozumiałe dla człowieka, stąd biorą się również problemy w tłumaczeniu jego działań. W przypadku „słabego” AI mamy określone reguły oraz zasady które zostały zakodowane przez programistę, który z kolei może nam wytłumaczyć z jakim zamysłem kodował te zasady. Są one również kodowane z z zamysłem bycia jak najbardziej przystępnymi dla człowieka, niekoniecznie dla maszyny. „Silne” AI natomiast nie podąża za tymi tropami, dlatego też ciężko jest wyjaśnić jego działanie. Jest ono zbiorem matematycznych wzorów i możliwych kalkulacji na bazie których AI wybiera najbardziej optymalną opcję z możliwych. W takim przypadku możemy mieć sytuację gdzie AI poda poprawną odpowiedź / dojdzie do poprawnego wniosku jednak nie będzie można w przystępny dla człowieka sposób odtworzyć drogi jaka została przebyta przez AI aby zrozumieć jak doszła do tego wniosku. Dzieje się tak ponieważ rozumowanie maszyn jest zgoła inne niż ludzi. Przykładem porównania tych dwóch zdaje się być często sytuacja, gdzie do pokoju z człowiekiem wkładamy kartkę papieru z tekstem po Mandaryńsku oraz prośbą o przetłumaczenie na Angielski. Gdyby człowiek ten był AI symbolicznym odszukałby on książkę z wyrażeniami w Mandaryńskim oraz w Angielskim,

odnajdywał te wyrażenia w pierwszej książce a następnie przepisywał analogiczne wyniki z książki drugiej po czym zwracałby przetłumaczony tekst. Po otrzymaniu takiego tłumaczenia mielibyśmy wrażenie że osoba wewnątrz pokoju umie tłumaczyć, jednak jest to jedynie złudzenie: osoba ta jedynie potrafi posługiwać się dostępną mu wiedzą i szukać analogii między dwoma językami, człowiek ten nie zna ani Mandaryńskiego ani Angielskiego. Gdyby jednak tłumacz był AI subsymbolicznym znałby on Angielski oraz Mandaryński i byłby on w stanie od razu przetłumaczyć tekst. Wiąże się to jednak z o wiele większym (wbrew pozorom) zasobem informacji wymaganym u AI subsymbolicznego, gdyż musiałoby najpierw zrozumieć i przeanalizować konteksty aby następnie móc tłumaczyć. Widoczna różnica natomiast następuje w przypadku porównania szybkości tych dwóch podejść: pierwsze wymaga aby za każdym razem tłumacz sięgał do zapisanych baz danych i tłumaczył tekst, co sprawia że jest wolniejszy. Drugie podejście natomiast tłumaczy teksty niemalże natychmiast, jednak wymaga dłuższego czasu na „nauczenie” się rozumowania. Problemem staje się też skalowalność takiego AI: symbolicznemu wystarczy „dopisać” kolejną książkę z innym językiem, natomiast subsymboliczny musi ponownie zrozumieć dany język. Czy można więc zatem wnioskować, że w szerszym rozrachunku „słabe” AI jest mocniejsze? Nic bardziej mylnego, gdyż zamiast traktować je jak odrębne obozy warto je rozpatrywać jak dopełniające się połówki jednej całości: AI symboliczne jest bazą wiedzy i logicznym mózgiem operacji, natomiast AI subsymboliczne jest „oczami” mózgu, gdzie do pełnej funkcjonalności jedno nie może funkcjonować bez drugiego.

2. Kierunki rozwoju
2.1 Podejście neuro-symboliczne[6, 7]

Pojęcie które towarzyszyło sztucznej inteligencji niemalże od jej początków lecz dopiero niedawno zaczęło być rozważane jako logiczna i mająca sens alternatywa dla obu poprzednich pojęć. Jest to koncept łączący logiczne rozumowanie AI symbolicznego z siecią neuronową i uczeniem się maszyny z AI subsymbolicznym. Dzięki tym technikom sztuczna inteligencja będzie w stanie rozpoznawać pewne schematy zachowań występujące w świecie rzeczywistym a następnie
logicznie je uwarunkować i finalnie wyciągnąć wnioski, ucząc się na zaprezentowanym zachowaniu. Jednym z większych projektów o tematyce neuro-symbolicznego AI jest program tworzony we współpracy IBM oraz MIT zwany „NS-CL” (ang. „Neuro symbolic – concept learner”). Jest to model który uczy się na bazie obserwacji konceptów, zjawisk oraz obiektów które połączone są z parami pytań i odpowiedzi. Podobnie jak w uczeniu się ludzi, NS-CL uczy się obserwując oraz czytając opisy, co pozwala mu na zbudowanie własnej bazy obiektów i scen, które później wykorzystuje jako bazę do nauki kolejnych pojęć oraz analizy nowych zdań. Przykładem takiego

nauczania jest pokazanie AI obrazka na którym znajduje się czerwony hydrant a następnie zadanie pytania „Jakiego koloru jest hydrant?”. AI „konwertuje” obrazek na obiekty przez niego rozumiane a następnie szuka wśród nich hydrantu. Po odnalezieniu go sprawdza jego kolor i podaje nam odpowiedź. Dzięki temu sztuczna inteligencja uczy się, że obiekt przedstawiony na obrazku również jest hydrantem (pomimo tego że nie widziała wcześniej tego konkretnego hydrantu i może dodać go do ogólnego rozumienia pojęcia) oraz że jest to również kolor czerwony (pomimo tego że może być to jakiś odcień AI może wciąż zakwalifikować ten konkretny kolor jako czerwony). Każde pytanie zadawane w ludzkim języku jest przez NS-CL konwertowane na program, który operuje na rozumianych pojęciach i wyciąga informacje / wnioski o które pytamy.

2.2 Logika rozmyta[8]

Dzięki rozwijającym się systemom AI maszyny nie muszą być ograniczone do rozumowania zero- jedynkowego. W przypadku kontrolowania procesów technologicznych w fabrykach dane które dostaje AI mogą być niedokładne lub też niekompletne. W takich sytuacjach używa się logiki rozmytej; stosuje się ją do opisywania zjawisk o charakterze wieloznacznym i których nie jest w stanie ująć logika dwuwartościowa. Oczywiście sterowanie w fabryce nie jest jedynym przykładem zastosowania takiego rozwiązania; takie AI odnajduje się we wszelkiego rodzaju sterownikach począwszy od pralek czy lodówek aż po przetwarzanie obrazów czy kontrolowanie ruchu samochodowego w przypadku korków ulicznych lub kolizji. Często tego typu model stosowany jest w połączeniu z siecią neuronową, gdyż z samego swojego założenia logika rozmyta nie może opierać się na odgórnie ustalonym i zakodowanym zestawie sytuacji połączonym z gotowymi instrukcjami będącymi odpowiedzią na rzeczone wydarzenia.

2.3 Systemy ekspercie[9]

Systemy eksperckie mają swoje początki już w latach 70 a rozkwitły w latach 80. Ich koncept opiera się na symulowaniu przez maszynę toku rozumowania eksperta z jakiejś dziedziny, na przykład medycyny lub chemii. System taki jest strukturalny i powstaje dzięki wielu komponentom oraz czynnikom: najpierw inżynier wiedzy otrzymuje od eksperta informacje a następnie odpowiednio je strukturyzuje w jednolitą całość. Następnie programista tworzy bazę zebranej wiedzy i łączy ją z interfejsem silnika wyszukującego informacje. Kolejnym krokiem jest zaprojektowanie i wdrożenie przyjaznego interfejsu użytkownika, dzięki któremu dowolna osoba chcąca korzystać z danej bazy może to robić bez znajomości programowania bądź też tego jak baza wiedzy jest ustrukturowana. Początkowo systemy eksperckie miały w planach zastąpienie ludzkich

ekspertów jednak pomysł ten szybko upadł ze względu na potrzebę ciągłego poszerzania takiej bazy wiedzy jak i omylność systemu. Niemniej jednak koncept ten pozostał w powietrzu i obecnie możemy spotkać udoskonalone wersje systemów eksperckich nazywanych obecnie systemami inteligentnymi. Cechują się one wysoką skutecznością w rozwiązywaniu problemów, jak również dokładnością oraz szybkością: czas odpowiedzi lekarskiego systemu eksperckiego jest diametralnie mniejszy niż faktyczna wizyta u lekarza. Ponadto od lat siedemdziesiątych zwiększyła się ich niezawodność, dzięki czemu można na nich polegać tak jak na ludzkim ekspercie. Kolejną ich
cechą jest możność do samodoskonalenia, dzięki czemu systemy te uczą się na nowych
przypadkach i poszerzają bazę swojej wiedzy. Następną ważną cechą jest ich dostępność i brak wpływu czynników zewnętrznych takich jak stres czy zmęczenie które mogą wpływać na jakość podanej przez eksperta odpowiedzi. System ekspercki jest operacyjny tak długo jak jest on włączony, nie musi on spać ani odpoczywać przez weekend. Nie jest on jednak kompletnie bez wad: warto wspomnieć że w nietypowej sytuacji system ekspercki może nie być w stanie wyprodukować odpowiedzi na nasze pytanie. Ponadto błędy w bazie wiedzy będą się przekładać na błędne odpowiedzi ze strony systemu co jest niekiedy ciężkie do wyłapania. Ostatnim minusem takiego systemu jest wbrew pozorom czynnik ludzki: pomimo całej posiadanej wiedzy to człowiek jest istotą kreatywną i może wpaść na niekonwencjonalny oraz kreatywny sposób rozwiązania

problemu.

2.4 Uczenie maszynowe[10]

Systemy uczące się, czyli inaczej uczenie maszynowe, stanowi podstawę dzisiejszej sztucznej inteligencji. Jest ono ściśle związane z analityką danych oraz ich eksploracją (znaną szerzej jako data mining). Uczenie maszynowe wykorzystuje matematyczne algorytmy do analizy danych i odszukiwania w nich wzorców, na podstawie których działanie programu jest odpowiednio dostosowywane. Ważnym aspektem oraz swoistą podkategorią uczenia maszynowego jest deep learning, które jest techniką polegającą na tworzeniu sieci neuronowych potrafiących zautomatyzować analizy predykcyjne. Tego typu technologie są nieocenione w takich sytuacjach jak potrzeba przetwarzania języka naturalnego, tłumaczeniu języków obcych, diagnostyka medyczna, transakcje giełdowe, rozpoznawanie obrazów oraz twarzy czy też bezpieczeństwo w sieci i wczesne wykrywanie przestępstw. Algorytmy deep learning różnią się też częściowo swoją budową od standardowych algorytmów uczenia maszynowego: algorytmy deep learning samodzielnie odszukują zestawy cech oraz wzorów do rozpoznawania podczas gdy w przypadku zwykłego uczenia maszynowego algorytm jest wspomagany programistą, który musi precyzyjnie określić cechy których program powinien szukać.

2.5 Rozpoznawanie obrazów[11]

System rozpoznawania obrazów to technologia pozwalająca na identyfikację obiektu z elektronicznego medium takiego jak obrazek lub klatka z nagrania wideo. Technologia ma swoje korzenie już w latach 60 XX wieku, jednak dopiero z biegiem czasu i rozwojem komputerów nabrała ona rozpędu oraz doczekała się wielu nowych zastosowań. Systemy te znajdują swoje zastosowanie w wielu dziedzinach: od pozornie prostej klasyfikacji zdjęć naszych pupili, poprzez rozpoznawanie twarzy przez aplikacje portali społecznościowych aż po kamery organizacji rządowych, analizujących świat w poszukiwaniu ukradzionych samochodów czy zaginionych osób. W początkowej fazie rozpoznawane są obiekty znajdujące się na obrazku. Jest to pozornie proste dla ludzkiego umysłu gdyż nie ważne co zostanie nam pokazane zazwyczaj uda nam się to zakwalifikować do jakiejś kategorii obiektów. Podświadomie pomijamy wtedy etap który jest dla AI bardzo ważny: rozdzielenie rzeczonych obiektów i określenie ich granic gdzie kończy się jeden obiekt a zaczyna następny. Kiedy już obiekty zostaną od siebie oddzielone, sztuczna inteligencja zaczyna przetwarzać czym mogą one być na podstawie swojej dotychczasowej nauki. Proces ten zbiera dane o obiekcie, opisuje go oraz kompiluje zebrane przez siebie informacje w uporządkowaną oraz hierarchicznie i logicznie spójną całość. W przypadku kamer bezpieczeństwa twarze są analizowane są między innymi pod względem podobieństwa do osób poszukiwanych zarówno ze względu na ich niebezpieczeństwo, jak i ze względu na to czy są osobami zaginionymi. Sztuczna inteligencja potrafi również obserwować oraz określać emocje danego człowieka na bazie wyrazu jego twarzy co jest wykorzystywane najczęściej w przypadku aplikacji social mediów. Aplikacje te przy pomocy aparatu rozpoznają twarz użytkownika a następnie dają dostęp do różnych filtrów zmieniających jego wygląd np., dodanie realistycznej brody, zmiana koloru włosów bądź też zamiana twarzy z inną osobą siedzącą obok. Są to funkcje głównie rozrywkowe, jednak mają również praktyczne zastosowania: coraz więcej producentów telefonów dodaje do nich funkcjonalność podobną do Face ID autorstwa Apple. Usługa ta pozwala na odblokowanie telefonu za pomocą twarzy w przeciwieństwie do standardowego kodu PIN czy też hasła. AI porównuje twarz widniejącą po drugiej stronie aparatu z zapisanym wzorem co pozwala na szybkie dostanie się do komórki. W przypadku codziennego użytkowania jest to wygodniejsza opcja pozwalająca na identyfikację, jednak w dziedzinie bezpieczeństwa wciąż musi ustępować takim zastosowaniom jak skaner siatkówki bądź linii papilarnych.

2.6. Sztuczna twórczość[12]

Rozwój technologii AI poniósł za sobą wiele zmian w codziennym życiu: od spersonalizowanych reklam poprzez filtry na social media aż po samochody prowadzące się same. Jednak poza tymi rozrywkowymi oraz praktycznymi zastosowaniami okazuje się, że sztuczną inteligencję można również wykorzystać w przypadku sztuki. Dotychczas twórczość kreatywna zdawała się być jedynie domeną ludzi, jednak z drobną pomocą również AI może osiągnąć niesamowite rezultaty. Sztuczną twórczość malarską AI osiąga dzięki pokazywaniu jej obrazów w różnych stylach oraz malowanych przez różnych artystów; sztuczna inteligencja uczy się na jej podstawie odmiennych stylów malowania i na bazie swoich doświadczeń potrafi generować nowe obrazy. Niestety, jest ona wciąż odgórnie ograniczona jedynie tym co sama zobaczyła, jednak jest to wciąż krok naprzód w twórczości robotów napędzanych AI. Na podobnej zasadzie działają sztuczne inteligencje tworzące muzykę, projekty architektoniczne, choreografię bądź też muzykę: na bazie obejrzanych materiałów AI rozpoznaje zachodzące wzory oraz prawidłowości a następnie stara się je powielać, imitując sztukę.

Literatura

1. „What is Artificial Intelligence? Psychometric AI as an Answer”, Selmer Bringsjord & Bettina Schimanski, 2003

2. „Mainstream Science on Intelligence”, Gottfredson, Linds S., 1997

3. „Artificial Intelligence: The Very Idea”, John Haugeland, 1985

4. „Artificial Intelligence: A New Synthesis”, Nilis Nilsson, 1998

5. „Artificial Intelligence: Connectionist and Symbolic Approaches”, Ron Sun, 1999

6. „Dimensions of Neural-symbolic Integration – A Structured Survey”, Sebastian Bader and Pascal Hitzler, 2005

7. „The Neuro-Symbolic Concept Learner: Interpreting Scenes, Words, and Sentences From Natural Supervision”, Jiayuan Mao, Chuang Gan, Pushmeet Kohli, Joshua B. Tenenbaum, Jiajun Wu, 2019

8. „Artificial Intelligence: A Modern Approach” (2nd ed.), Stuart J Russel, Peter Norvig, 2003 9. „Machines Who Think” (2nd ed.), Pamela McCorduck, 2004

10. „Artificial Intelligence: Structures and Strategies for Complex Problem Solving” (5th ed.), George Luger, William Stubblefield, 2004

11. „Rozpoznawanie obrazów”, Ryszard Tadeusiewicz, 1991

12. „CAN: Creative Adversarial Networks, Generating ‘Art’ by Learning About Styles and Deviating from Style Norms”, Ahmed Elgammal, Bingchen Liu, Mohamed Elhoseiny, Marian Mazzone, 2017.

Rzeczywistość wirtualna i rozszerzona
Metody badawcze w informatyce

Bartosz Cozac

1.Wprowadzenie

Temat rzeczywistości wirtualnej interesował mnie odkąd tylko pamiętam. Gdy byłem mały zawsze marzyłem o maszynie która mogłaby przenieść mnie do zupełnie nowych krain, maszyny która rozbudowała by moje realia i zmieniła moje życie na ciekawsze. Tak też dorastałem z marzeniem które na początku wydawało mi się nie do spełnienia. Jakiś czas później napotkałem się na coś co dało mi nadzieję na spełnienie mojego marzenia, rzeczą tą były jedne z pierwszych tekturowych gogli VR do których wkładało się swój telefon, nie był to szczyt moich marzeń, ale zapaliło się we mnie światełko nadziei na lepsze jutro. Z upływem lat wychodziły coraz to lepsze wersje gogli VR i tak znajdujemy się w tym momencie, w momencie w którym człowiek może założyć takie gogle i przenieść się do zupełnie nowego świata i mieć interakcje z jego otoczeniem.

Zaraz obok wirtualnej rzeczywistości powstawała inna technologia, rozszerzona rzeczywistość, mimo iż nie zdawała się aż taka interesująca to jej aktualne możliwości dają nam nadzieję na stworzenie czegoś co będzie nam pomagać na co dzień, czegoś co urozmaici nam naszą codzienność.

2.Definicja

Fantomatyka (termin utworzony przez wielkiego twórcę – Stanisława Lema), zwana z języka angielskiego VR – virtual reality, co w tłumaczeniu oznacza rzeczywistość wirtualną. Wirtualna rzeczywistość (ang. virtual reality,VR) jest to wygenerowany komputerowo obszar,nie mieszczący się w granicach świata realnego, dzięki któremu użytkownik może przenieść się do dowolnie wybranego wirtualnego wymiaru.

Podstawą do doświadczenia VR są google w których wyświetlany jest obraz przed samymi oczami użytkownika, w.w. google wyposażone są w czujniki, dzięki którym wyświetlany obraz reaguje na ruch głowy, pogłębiając poczucie immersji. Dodatkowo można użyć specjalnych kontrolerów współgrających z systemem VR, umożliwiających wchodzenie w interakcje z wyświetlanymi przedmiotami, postaciami czy światami.

Zastosowań technologii VR jest wiele, choć obecnie najczęściej stosowana jest w szeroko pojętej rozrywce i nauce. W rozrywce popularność zyskują filmy i gry VR, pogłębiające uczucie wejścia w świat gry czy filmu, wpływając dzięki temu na poprawę doświadczenia. W nauce technologia ta umożliwia np. szkolenia i symulacje nie wymagające przeprowadzenia prawdziwych procedur. Można na przykład przeprowadzać symulowane zabiegi chirurgiczne na wirtualnym pacjencie.

Rozszerzona rzeczywistość (ang. augmented reality, AR) jest to technologia pozwalająca na umieszczenie wirtualnych przedmiotów w naszej rzeczywistość i zobaczenie ich symulacji na ekranie np. telefonu. Modele są nakładane na obraz z kamery, poszerzając naszą rzeczywistość o wirtualne obiekty. Technologia AR nie wymaga dodatkowego sprzętu. a w większości przypadków tylko oprogramowania umożliwiającego jej funkcjonowanie.Interakcja z wyświetlanymi obiektami jest również bardzo ograniczona porównując ją do VR ze względu na ograniczenia technologiczne, mamy do dyspozycji jedynie ekran telefonu.

Główne zastosowania technologii AR to rozrywka i marketing. Technologia AR w rozrywce umożliwia tworzenie gier mieszających elementy wirtualne i rzeczywiste poszerzając doświadczenia płynące z nich. W marketingu popularność zyskują ulotki lub broszury, na których przy pomocy telefonu możemy zobaczyć model oferowanego produktu.

3.Wirtualna i rozszerzona rzeczywistość dziś[9]

             W dzisiejszych czasach urządzenia VR/AR mają w sobie jedną wielką wadę, mimo iż obraz wyświetlany w nich jest bardzo płynny i w wysokiej rozdzielczości to powoduje on zawroty głowy i uczucie zmęczenia. Technologie te są mocno ograniczane przez powolne komponenty które mają małą moc obliczeniową, przez co nie możemy aktualnie wyciągnąć z nich ich pełnych możliwości.

3.1.Rzeczywistość wirtualna i rozszerzona w odniesieniu do osób starszych[6]

         Aktualnie osoby starsze, które mają problemy z poruszaniem się mają bardzo utrudniony dostęp do świata zewnętrznego i nie mają jak poznawać nowych osób. Sprawia to że takie osoby oddalają się od życia społecznego i ich życie zamyka się w ich domu. Tu z pomocą przychodzą technologie wirtualnej i rozszerzonej rzeczywistości! Technologie te mogą bardzo urozmaicić im ich życie codzienne, i znów otworzyć takim osobom okno na świat.  Urządzenia VR pozwalają osobom starszym odizolować się od świata codziennego i zanurzyć się w nowy, często unikatowy świat wirtualny.

Dzięki technologii AR ludzie urozmaicają sobie codzienność przez dodawanie nowych elementów do ich otoczenia. Osoby takie mogą przeżywać doświadczenia o jakiś nigdy by nie śniły. Jest to dla nich świetna ucieczka od realiów dnia codziennego. Jednakże starsze osoby są często pomijane ponieważ gry VR często są kierowane do osób młodych przez co osobom starszym ciężko się w nich odnaleźć.

3.2. Rzeczywistość wirtualna i rozszerzona w architekturze[1,2]

         Rzeczywistość wirtualna jest już wprowadzana jako element projektowania architektury. Technologia ta jest czymś co idealnie pasuje do projektowania wnętrz, czy też budynków. Dlaczego? Ponieważ w przestrzeni wirtualnej projektant ma bardzo dużą styczność z swoim projektem. Osoba używająca VR ma swobodę ulepszania projektu nad którym pracuje i może edytować wszelkie jego właściwości.

Pewna warszawska firma daje swoim klientom możliwość uczestniczenia w procesie tworzenia ich przyszłych modeli mebli dzięki rozszerzonej rzeczywistości. Pomysł ten stał się tak popularny że sposób ten zaczął być naśladowany w innych krajach. Technologia rozszerzonej rzeczywistości daje nam możliwość zobaczenia jak prezentowałby się nasz obiekt w prawdziwym życiu, jakoś takiego obiektu nie byłaby aktualnie najlepsza.

3.3. Rzeczywistość wirtualna a militaria[3]

         W aktualnym momencie rzeczywistość wirtualna rozwinęła się do takiego stopnia, że może być ona stosowana w wojsku. Technologia ta może być wykorzystywana w szkoleniu nowych jednostek, poprzez symulację pola bitwy. Poprzez treningi w otoczeniu VR zacieśniają się więzi drużyn i polepsza się komunikacja pomiędzy oddziałami, ponieważ przez symulację VR żołnierz może zdobyć doświadczenie w polu bojowym bez realnego ryzyka. W symulacji takiej można przedstawiać możliwe sytuacje które mogą wystąpić na polu bitwy, przez co żołnierze są bardziej przygotowani.

            Aktualnie trwają badania dotyczące wpływu wirtualnej rzeczywistości na zapobieganie zespołowi stresu pourazowego(ang. Post traumatic stress disorder). Poprzez symulację bardzo łatwo można dostrzec u osoby jakiekolwiek objawy stresu pourazowego, dzięki czemu można bardzo szybko zareagować i w porę zapobiegać dalemu postępowi PTSD. Terapia taka pozytywnie wpływa na stan psychiczny pacjenta.

3.4 Rzeczywistość rozszerzona i wirtualna a życie socjalne[8]

         Problemy z komunikacją między ludźmi towarzyszyły nam od początków istnienia ludzkości. W momencie stworzenia telefonów komórkowych bariera komunikacji delikatnie się wymazała, jednakże rozmawianie z inną osoba przez telefon nie jest tym samym czym jest rozmawianie twarzą w twarz.

Tu z pomocą przychodzą nam technologię wirtualnej rzeczywistości i rozszerzonej rzeczywistości. Jedną z pierwszych bardziej popularnych gier komputerowych była gra o nazwie VR Chat. Polega ona głównie na rozmawianiu z innymi osobami za pośrednictwem avatarów(Postaci którą sobie wybierzemy). Same gogle VR wykorzystują sensory które wykrywają ruch naszych rąk i przekazują go do gry. Pozwala to nam na rozmowę z innymi osobami, oraz gestykulację. VR wymazało już prawie całkowicie granice odległości między ludźmi.

3.5 Rzeczywistość wirtualna w farmacji[10]

Przez coraz to mniejsze zainteresowanie farmacją farmakolodzy zauważyli że lepiej jest się uczyć aktywnie niż pasywnie, przez to ich uwaga padła na technologię VR. Przeprowadzenie nauki w wirtualnej rzeczywistości nie wymaga użycia materiałów, tym samym całkowicie niwelując koszta materiałowe. Przez stosowanie aktywnego trybu nauczania studenci lepiej zapamiętują materiał, a co za tym idzie przyswajają więcej wiedzy i są bardziej doświadczeni. Dzięki tej technologii zmienia się sposób w jaki są nauczani studenci. Dawniej stosowano sposób “sage on stage” a teraz coraz bardziej stosuje się sposób “guide on the side”.

  1. Plany na przyszłość

4.1. Osoby starsze[6]

W przyszłości planowane jest całkowite zniszczenie bariery która dzieli osoby starsze, które z powodów fizycznych nie mogą żyć normalnym życiem. Sama technologia może zostać ulepszona do tego stopnia, że osobom starszym trudno będzie odróżnić rzeczywistość wirtualną od życia prawdziwego i nie będzie ona wywoływać żadnych efektów ubocznych.

Technologia AR może zostać dopracowana do takiego stopnia, że będzie niezbędnikiem życia codziennego. Dzięki tym technologiom osoby starsze będą mogły się komunikować z innymi, nie wychodząc z domu, oraz będą mogły przeżywać doświadczenia jakich nie doświadczyły nigdy wcześniej. Zagwarantuję to m.in. stworzenie usługi polegającej na tworzeniu indywidualnych pokazów opartych na wyprodukowanych spersonalizowanych mediach fantomatyki dla osób starszych i dotkniętych chorobami psychicznymi, w szczególności dot. chorób związanych z utratą pamięci.

4.2. Architektura[1,2]

          W przyszłości cały rynek architektury może być zdominowany przez technologię AR i VR. Dzięki użyciu ich będzie można zaprojektować całe budynki, edytować różnorakie obiekty i wykonywać wszelkie akcje związane z projektowaniem i edycją w architekturze. Technologia ta pozwoli nam na podgląd projektów i wirtualne umieszczanie ich w przestrzeni rozszerzonej.

4.3. Militaria[3]

Bardzo możliwe że technologia VR w przyszłości urozmaici cały przemysł wojskowy, wprowadzając doskonałe symulacje pola bitwy co za tym idzie zmniejszenie ryzyka na jakiekolwiek urazy po potyczce oraz zwiększy świadomość żołnierzy o komunikacji w trakcie walki. Dzięki tej technologii będzie można łatwiej stosować rehabilitację osób z problemami po urazach na polu bitwy czy też wykrywać poważne problemy psychiczne po służbie.

Ważne jest też skupienie się na domenie społecznej dla żołnierzy zarówno z punktu widzenia celu misji, jak i ludzi, którzy ryzykują ich życie spełnia te niebezpieczne role. Poprzez dalsze ulepszanie ich

4.4. Życie socjalne[8]

Wielką szansę w przyszłości będą miały osoby z problemami psychicznymi, ponieważ istnieje szansa że będzie można wykorzystywać technologię AR/VR do stosowania terapii między ludźmi. Terapie takie mają to do siebie że wymagają kontaktu wzrokowego między ludźmi.

Technologie te mogłyby dokładnie wyświetlać osobę z którą aktualnie rozmawiamy i przechwytywać jej ruchy. Polepszyłoby to też wszelkie kontakty międzyludzkie i całkowicie złamałoby barierę socjalną między ludźmi, ponieważ można byłoby spotkać się z każdym, wszędzie.

4.5. Farmacja[10]

         W przyszłości cena sprzętu do VR/AR powinna spaść, przez co sam dostęp do tej technologii będzie o wiele łatwiejszy. A co za tym idzie, więcej uczelni będzie miało możliwość uczenia używając tej technologii. Wielką szansą dla przemysłu farmacji jest ewolucja symulacji wewnątrz AR/VR. Może to doprowadzić do  zwiększenia jakości szkolenia studentów, a co za tym idzie przyrost wprost proporcjonalny do dobrze wykształconych specjalistów. Dzięki VR/AR możliwe będzie  zwiększenie uczucia immersji.

  1. Bibliografia

1. Gębczyńska-Janowicz, Agnieszka. Virtual reality technology in architectural education. ,World Transactions on Engineering and Technology Education. 1 1 2020, T.18, s.24-28.

2. Rafał Mazur, Maciej Piekarski, Szymon Filipowski. Rzeczywistość rozszerzona jako element partycypacji w kształtowaniu przestrzeni architektonicznej. Architectus : Pismo Wydziału Architektury Politechniki Wrocławskie, 2019, nr 2 (58).

3.Adam Fedyniuk, Agnieszka Ignaczewska Perspective-Taking in Virtual Reality for Military Personnel: An Overview of Approaches to Virtual Social Training. Ruch Filozoficzny LXXV 2019

4.Łukasz Pełka, Łukasz Podstawka, Tomasz Szymczyk. Analiza porównawcza gogli do VR. JCSI 10(2019) 36-43.

5.Angelika Katarzyna Wilk. Virtual reality – support or security threat?. JOURNAL OF MODERN SCIENCE TOM 4/39/2018, S. 277–292

6.Li Na Lee, Mi Jeong Kim, Won Ju Hwang. Potential of Augmented Reality and Virtual Reality Technologies to Promote Wellbeing in Older Adults. Appl. Sci. 2019, 9, 3556.

7.Ronald T. Azuma. A Survey of Augmented Reality.

8.Mark Roman Miller, Hanseul Jun, Fernanda Herrera, Jacob Yu Villa , Greg Welch , Jeremy N. Bailenson. Social interaction in augmented reality. PLOS ONE May 14, 2019.

9.Zehao He, Xiaomeng Sui, Guofan Jin, and Liangcai Cao. Progress in virtual reality and augmented reality based on holographic display. Vol. 58, No. 5 / 10 February 2019 / Applied Optics.

10.Leanne Coyne, PhD, Thayer A. Merritt, BS, Brittany L. Parmentier, PharmD, Rachel A. Sharpton, PharmD, Jody K. Takemoto, PhD. The Past, Present, and Future of Virtual Reality in Pharmacy Education. American Journal of Pharmaceutical Education 2019; 83 (3) Article 7456.

Projekt jest realizowany we współpracy z Wydziałem ds. Przedsiębiorczości i Innowacji Miasta Krakowa.

Przewiń do góry