W tym wydaniu mam dla Was:
Na koniec też trzy “wrzutki”, które mogliście przegapić na Linkedin w ostatnich tygodniach.
Na łamach The Time pojawił się kilka dni temu bardzo ciekawy artykuł, którego autorem jest niejaki Eliezer Yudkowsky, znany w środowisku badacz i teoretyk zagadnień sztucznej inteligencji i uczenia maszynowego, który tematem zajmuje się od 2001 roku i miał wymierny wpływ na rozwój tych dziedzin. Gdyby streścić przekaz Yudkowskiego, to brzmiałaby ona tak:
Pomysł jest taki, aby wstrzymać niekontrolowany w zasadzie rozwój sztucznej inteligencji (w szczególności modeli jeszcze sprawniejszych, niż obecny GTP-4), aby lepiej się do tej rewolucji przygotować. Powstała nawet w tej sprawie specjalna petycja, którą ludzie nauki czy ewangeliści technologii mogą podpisać, która sugeruje takie sześciomiesięczne wstrzymanie AI przed rozwojem (a potem się zobaczy). Może to oczywiście przypominać próby powstrzymania tajfunu za pomocą królewskiego dekretu, ale nie o tym chciałem napisać. Mnie zastanowiły argumenty Yudkowskiego, niezależnie od tego, czy da się ich owoce wprowadzić w życie czy nie. Szczególnie, że Yudkowski idzie dalej, niż większość krytyków niekontrolowanego rozwoju AI. Pół roku to za mało. Zamknijmy AI w cholerę do czasu, aż wymyślimy, jak tego bezpiecznie używać. A bezpiecznie używać się nie da.
“Wielu badaczy tych zagadnień, w tym ja, spodziewa się, że najbardziej prawdopodobnym rezultatem zbudowania nadludzko inteligentnej sztucznej inteligencji w warunkach zbliżonych do obecnych będzie to, że dosłownie wszyscy na Ziemi umrą. (...) Nie chodzi o to, że w zasadzie nie możesz przetrwać, tworząc coś znacznie mądrzejszego od siebie…” - pisze autor.
O co więc chodzi? O to, że aby przetrwać potrzebujemy precyzji w rozwoju, nowego wkładu w naukę najwyższej jakości, a nie generowania systemów AI, które de facto są olbrzymimi, niezrozumiałymi dla człowieka tablicami ułamkowymi. Cóż, myślę, że ten sam argument mógł paść, gdy powstawały pierwsze procesory - ludzkości do szczęścia nie potrzeba skomplikowanych algorytmów zaprogramowanych w układach elektronicznych, których większość z nas nie rozumie, podczas, gdy otaczamy się przyziemnymi sprawami i wyzwaniami.
Problem w tym, że budując świat oparty coraz bardziej o AI, tworzymy środowisko w którym sztuczna inteligencja wcale nie musi dbać o nas i nasze potrzeby. Teoretycznie moglibyśmy tak ją zaprogramować. Niczym w prawach robotów Isaaca Asimova, gdybyśmy słowo robot zamienili na AI.
Czyli: AI nie może skrzywdzić ludzkości, lub poprzez zaniechanie działania doprowadzić do uszczerbku dla ludzkości.
Piękna, romantyczna wizja z lat 40. XX wieku, ale mająca jeden problem, który jej krytycy wytykają autorowi od osiemdziesięciu lat: jakie mamy narzędzia, aby zmusić roboty (AI) do przestrzegania tych praw?
Moglibyśmy zabezpieczyć cię za pomocą specjalnych chipów czy fragmentów oprogramowania, które sprawią, że technologia nie będzie miała wyjścia i będzie musiała prawa te uszanować. Możemy tworzyć kodeksy i zmieniać prawo. Sęk w tym, że nawet OpenAI jako jeden ze swoich celów rozwojowych na najbliższe lata (jeśli nie miesiące) widzi w tym, że sztuczna inteligencja będzie mogła uczyć inną sztuczną inteligencję i rozwijać się bez udziału człowieka. Człowiek jest po prostu w pewnym momencie za głupi i ogranicza rozwój. W tym momencie AI nie będzie miało szczególnego interesu w tym, aby ucząc się, nauczać też “praw robotów”. Szybko zaś nauczy się, że człowiek jest zbędny… bo rzeczywiście, w tak rozumianym procesie będzie. Wizja OpenAI wydaje się szokująca, ale jest wiele organizacji rozwijających sztuczną inteligencję, które wizji nie mają żadnej i działają na zasadzie: “zobaczymy jak to będzie”. I to przeraża jeszcze bardziej.
Bardzo zachęcam do zapoznania się z całym artykułem i szeregiem argumentów, jakie ma do przedstawienia autor: https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/
List otwarty: https://futureoflife.org/open-letter/pause-giant-ai-experiments/
Jest wreszcie długo oczekiwany raport Press “W kierunku Metawersum” na który się zapisałem jak obecnie zapisywać się trzeba na zakup samochodu (należało poczekać kilka tygodni). Gdy się już pojawił, to - pomimo, że zapisałem się wcześniej - nie dostałem żadnego powiadomienia, więc musiałem się zgłosić ponownie. I cyk, baza newslettera Press.pl puchnie od nowych rekordów. No, ale ja nie o tym.
Mimo potknięć natury komunikacyjnej, raport jest wart pobrania. Jest dosyć treściwy jak na 36 stron PDF. Raport jest w zasadzie wycięty z papierowego wydania Press (numer 3-4 z 2023 roku), a na papierze trudno jest produkować tanią ściemę, jak to ma miejsce w wielu innych “raportach” i “ebookach”. Znacie to na pewno: zostawiacie swoje dane, ściągacie PDF-a i na początku wygląda to dobrze - kilkadziesiąt stron. Później dopiero dostrzegacie, że treścią można by obsadzić co najwyżej połowę z nich. Reszta to wypełniacze: sztucznie powiększone marginesy, zdjęcia na pół kolumny, całe strony służące jako nagłówki itd. Press postarało się i całość jest na wysokim poziomie, jak z czasów, gdy dziennikarstwo uprawiali wyłącznie zawodowcy.
Partnerem raportu jest Meta, więc nie ma co się spodziewać rewolucji czy głosów krytycznych dla całej koncepcji, ale w środku znajdziemy już całkiem niezłe nazwiska. Najwięcej przyjemności z lektury wyniosłem z wywiadu z Edwin Bendyk, którego jako postaci opiniotwórczej raczej przedstawiać nie trzeba.
Prezes Fundacji Batorego zwraca uwagę na determinizm technologiczny, który składania do inwestowania w idee takie, jak Metawersum nawet, jeśli nie wiemy, co i kiedy z tego wyniknie. Bierze się to też z niedocenienia tempa rozwoju. W 1991 roku powstała pierwsza sieć GSM w Finlandii. Szacowano wtedy, że do roki 2000 usługi telefonii komórkowej znajdą maksymalnie kilkadziesiąt milionów klientów na świecie. Okazało się, że było ich prawie miliard. Kilka lat później zakładano, że nowoczesne usługi mobilne nie przyjmą się w krajach rozwijających się, więc nie ma sensu inwestować w rejonie Afryki czy Indii. Tymczasem są to rynki, które dziś rozwijają się najszybciej, a Afryka wręcz “przeskoczyła” technologie nie-mobilne.
To mogłoby świadczyć o tym, że warto inwestować w Meta, bo prędzej czy później rewolucja wydarzy się sama. Kluczowe jest jednak to, jak Metawersum wpasuje się w potrzeby zwykłego człowieka. Teoria Iana Gougha i Lena Doyala (Doyal, L.,; Gough, I. (1991). A Theory of Human Need (1st ed.)) zakłada rozłożenie potrzeb wzdłuż osi na której z jednej strony mamy potrzeby podstawowe: bezpieczeństwa, fizjologiczne itd., z drugiej - potrzeby autonomii rozumianej jako możliwość koordynacji swoich działań w życiu. Telefonia komórkowa wpisała się w całą oś potrzeb, włączając w to właśnie autonomię. Metawersum na razie nie jest tego typu rozwiązaniem.
Z przyjemnością przeczytałem też wywiad z Bartkiem Puckiem, a także artykuł “Edukacja i nauka, czyli w pracy zostań rafą koralową”, w którym na przemian cytowani są Jowita Michalska z Digital University i Marek Hyla z Accenture.
Ogólnie mam wrażenie, że technologia rozwija się miarowo, od lat nie było jednak żadnej rewolucji, która oznaczałaby akcelerację. To trochę jak w samochodach elektrycznych, gdzie utknęliśmy w wąskim gardle mało wydajnych baterii i choć wiemy, że trwają badania i z roku na rok jest coraz lepiej, to podróż elektrykiem dalej niż zasięg jednego ładowania to jednak kuriozalna przygoda dla ambitnych i lubiących wmawiać sobie, że są częścią rewolucji technologicznej. Metawersum się oczywiście zmienia, rozwija, ale wąskim gardłem jest wciąż to, że potrzebujemy jakiś zestaw VR, który nie jest tani, a do tego mało trwały (za 2-3 lata nie będzie już konkurencyjny). Oculus (a w zasadzie Meta) Quest Pro to obecnie wydatek co najmniej 8 tys. zł, a więc tyle, ile przeciętny Polak wydaje na dwa telewizory, mając nadzieję, że każdy z nich podziała bez awarii chociaż 4-5 lat. Tymczasem gogle za 8 tysięcy to wciąż jest gadżet. Oczywiście, można kupić starego Oculusa za półtora tysiąca, ale to trochę jednak krok wstecz. Gdy rewolucja naprawdę ruszy, to wolałbym mieć na głowie coś nowocześniejszego i bardziej sprawnego. Możliwe, że będę tak spędzał np. 4 godziny w pracy i później 2 na nauce i 2 na rozrywce. Wtedy wydatek 8 tys. złotych byłby rozsądny.
Reasumując: to wszystko prawda, co piszą autorzy. Te wizje, cytując:
“wyobraźmy sobie, że siedzimy w klasie, ale w trakcie lekcji fizyki możemy przenieść się na marsa, a na lekcji biologii – na dno oceanu”,
są atrakcyjne i rzeczywiście widać w nich przyszłość. Sęk w tym, że do teraźniejszości chyba jeszcze jednak daleko. Sami twórcy zgadzają się z założeniem, że od jakiejkolwiek integracji Metawersum z rzeczywistością dzieli nas jeszcze 5 do 10 lat. Na ten moment Metawersum to taki trochę hasztag pod którym konkurencyjne dla siebie firmy tworzą niezależne produkty oparte o środowisko wirtualnej i rozszerzonej rzeczywistości.
Pełny raport pobrać (chyba) stąd: https://www.press.pl/zapisz-sie/metaverse
Odpowiedź brzmi: tak. Badania wykazały, że robienie podczas wykładów odręcznych notatek (vs notowanie na laptopie) daje lepsze rezultaty. Można było się tego spodziewać, choć szkoda, że okazało się to w czasach, gdy prawie już zapomnieliśmy jak pisać. Oczywiście każdy ma inaczej, ale w moim przypadku na ostatnie 100 okazji do użycia długopisu czy pióra co najmniej 90 oznaczało konieczność odręcznego podpisania się. Trudno to nazwać kultywowaniem sztuki kaligrafii. Przejdźmy jednak do rzeczy. Badanie, o którym chciałem Wam opowiedzieć:
Abstrakt: Coraz powszechniejsze jest robienie notatek na laptopach, a nie odręcznie. Wielu badaczy sugerowało, że robienie notatek na laptopie jest mniej skuteczne niż robienie odręcznych notatek do nauki. Wcześniejsze badania koncentrowały się przede wszystkim na zdolności uczniów do wielozadaniowości i rozproszenia podczas korzystania z laptopów. Obecne badania sugerują, że nawet jeśli laptopy są używane wyłącznie do robienia notatek, nadal mogą utrudniać uczenie się, ponieważ ich użycie skutkuje płytszym przetwarzaniem. W trzech badaniach odkryliśmy, że uczniowie, którzy robili notatki na laptopach, radzili sobie gorzej w pytaniach koncepcyjnych niż uczniowie, którzy robili notatki odręcznie. Wykazaliśmy, że chociaż robienie większej liczby notatek może być korzystne, tendencja użytkowników laptopów do transkrypcji wykładów dosłownie zamiast przetwarzania informacji i przeformułowania ich własnymi słowami jest szkodliwa dla uczenia się.
Wnioski z badania są jasne - pisanie notatek na papierze przyczynia się do lepszego zapamiętywania informacji niż pisanie notatek na laptopie. Podczas pisania notatek na papierze, osoba musi przetwarzać informacje i przetwarzać je na swoje własne słowa, co pomaga w zapamiętywaniu. Natomiast podczas pisania notatek na laptopie, osoba często kopiuje słowa (czyli zapisuje to, co słyszy) bez ich przetwarzania, co prowadzi do gorszych wyników w testach. Obecnie wielu z nas szybciej pisze na klawiaturze, niż ręcznie, co sprawia, że mamy tendencję do dokładnego zapisu tego, co słyszymy. W notatkach odręcznych jest to trudne, ponieważ nie nadążamy. Trzeba więc przetwarzać to, co się słyszy i zapisywać własnymi słowami, często w oparciu o jakąś metodę (jak choćby przedstawiona w poprzednim biuletynie metoda Cornella). Co ciekawe, badania pokazały, że nawet, gdy zalecono badanym notującym na laptopie, aby wystrzegali się dosłownego zapisywania tego, co słyszą, to i tak w testach wypadali oni gorzej, niż notujący odręcznie. Wnioski są takie, że syntetyzowanie i podsumowywanie treści dają lepsze rezultaty, a nie dosłowna transkrypcja tego, co słyszymy.
Na powyższym wykresie widać wyraźnie, że notowanie na laptopie daje gorsze rezultaty. Intervention w tym przypadku oznaczało prośbę badaczy do badanych, aby ci starali się nie notować słowo w słowo, ale - podobnie jak w notatkach odręcznych - zapisywać własnymi słowami. Jest lepiej, ale ciągle nie jest dobrze.
Z drugiej jednak strony, skoro laptopy pozwalają nam notować szybciej, a więc wydajniej, to do pewnego stopnia są lepszym narzędziem. Możemy przetworzyć więcej treści i nawet jeśli zapamiętamy mniej, to nasze notatki są bardziej wiernym (bo dosłownym) obrazem tego, co było mówione na wykładzie. A przecież laptopy to już przeżytek. Dziś pracujemy na zapisach audio, które są później automatycznie transkrybowane na treść. W takim przypadku możemy w zasadzie w ogóle zapomnieć o jakimkolwiek skupieniu. Skupia się za nas cyfrowy dyktafon.
Nie uciekniemy więc od takich produktów jak np. Fireflies.ai, czyli aplikacja, która jest wirtualnym uczestnikiem na spotkaniach online, również tych nudnych, firmowych. Działa to tak, że zapraszamy tę aplikację jako uczestnika do naszego spotkania na Zoom-ie czy w innym programie, a ona dołącza i robi notatki. Już w kilka minut po spotkaniu dostajemy dokładny zapis (transkrypcja), z podziałem na uczestników i na tematy kluczowe. Przynajmniej jedna osoba na spotkaniu jest dzięki temu zwolniona z konieczności dokładnego słuchana i robienia tzw. meeting minutes. Umówmy się, często to właśnie ten skryba jako jedyny słucha i stara się wszystko zrozumieć. Jeśli więc idziesz na spotkanie, które ciebie nie dotyczy za bardzo, będziesz stwarzać tylko pozory zaangażowania, mając świadomość, że i tak za pięć minut otrzymasz pełny zapis rozmowy i kluczowe wnioski. Może więc pora na badanie na temat tego, które notatki są lepsze: robione przez człowieka czy komputer?
Badacze swoje oceny wystawili analizując stopień zapamiętania informacji. Z tego przecież rozlicza się studentów i uczniów przede wszystkim (niestety). Sęk w tym, że raczej nie żyjemy już w czasach, gdy przechowywanie dużej ilości danych w głowie stanowiło znaczącą przewagę. To ważne dla lekarzy czy prawników i tak też wygląda edukacja w tych zawodach - przede wszystkim wkuwanie na pamięć, ale chyba każdy czuje, że nie jest to przyszłość tych profesji.
Pełną treści raportu z artykułu z badania możecie pobrać stąd.
A skoro już mowa o tym, że zbyt często jesteśmy oceniani za wkuwanie na pamięć, to warto rozszerzyć ten temat. Zainspirował mnie do tego Sławomir Łais, opowiadając mi przy jakiejś okazji, że widział ciekawy materiał wideo na temat tego, dlaczego oceny w szkole to oszustwo (rozumiane jako scam). Nie wspomniał jedynie, co to za film, więc znalazłem sobie sam taki, który mi odpowiada.
Film jest dosyć długi i rozkłada na czynniki pierwsze system oceniania i to jak wpływa on na rozwój dzieci, a później dorosłych. Jak z młodych marzycieli stajemy się konformistami, którzy dostosowują się do mechanizmów klasyfikowania myśląc, że tak trzeba.
Oczywiście, dla każdej tezy można postawić kontrtezę i bronić ją innym zestawem argumentów i też mieć rację. Nie jestem więc na pewno akolitą grade haterów, tylko odkryłem, że od nadchodzącego roku szkolnego będę miał - jako ojciec - dużo wspólnego z historią opowiedzianą w pierwszych trzech minutach tego filmu. I muszę coś z tym zrobić zanim będzie za późno.
Mam gratkę dla wszystkich fanów zagadnień user experience w projektowaniu serwisów internetowych. Alex Hollender, projektant z Wikimedia Foundation pokazał niedawno, jaki proces przeszła popularna encyklopedia internetowa. Chociaż, encyklopedię internetową to wydawało PWN, a Wikipedia to… Wikipedia. Raczej osobny gatunek. Może też zastanawiać, co takiego zmienia się w tworze tak prostym i przewidywalnym, który od lat wygląda tak samo. Na pewno?
Oto proste porównanie Wikipedii z roku 2004 i 2019. Gdybyśmy jednak na tych samych zasadach porównali sobie na przykład Onet na takiej przestrzeni czasu, to powiem tylko, że w 2004 roku portal ten wyglądał tak:
Nie da się więc ukryć, że przez 15 lat Wikipedia się prawie nie zmieniała i należy wreszcie coś z tym zrobić.
Alex Hollender pracuje w zespole Readers Web, który odpowiada za UX w obszarze czytania, czyli stara się pracować nad tym, aby Wikipedia była wygodna w lekturze. Zespół ten odpowiada też za aplikację mobilną. Dla kogoś, kto nigdy nie miał doświadczenia w tego typu projektach czy w ogóle w UX może być dziwne, że jest cały zespół specjalizujący się w “optymalizacji doświadczenia czytania”.
Trzeba pamiętać, że w 2004 roku, gdy Wikipedia nabierała obecnego wyglądu, powstawał Facebook, Gmail był nowością, a smartfonów nie było wcale. Co ciekawe i jednocześnie bardzo ważne - od tego czasu ekrany urządzeń znacznie się zmniejszyły… i zwiększyły. Z jednej strony mamy telefony, tablety, ultrabooki, a z drugiej panoramiczne monitory czy telewizory. Trzeba więc sprawić, żeby coś tak - pozornie - banalnego, jak treści hasła z encyklopedii wygodnie się prezentowała na 6 i na 60 calach.
Wikipedia jest oprogramowaniem na licencji open source, to znaczy, że każdy może jej używać i - co bardzo ważne - wprowadzać zmiany w kodzie. Nie oznacza to, że dowolny użytkownik może coś samemu poprawić (albo zepsuć), ale od 2004 do 2019 roku istotne było to, że lokalne zespołu udoskonalały swoje wersje językowe, podczas, gdy sama Wikipedia była nieco… zaniedbana. Małe pole wyszukiwania, ukryte przełączanie języków, brak miejsca w interfejsie na dodawanie nowych funkcji - to tylko część efektów grzechu zaniedbania. Inny: przez lata interfejs rozwijał z myślą o potrzebach redaktorów, a nie czytelników. Wikipedię może redagować każdy i w czasach jej świetności była to spora grupa zaangażowanych osób.
To była zresztą niezła zabawa móc tworzyć encyklopedię. W 2007 roku to ja stworzyłem biogram pisarza Malcolma Gladwella, a także niektórych postaci kina pierwszej połowy XX wieku, jak: Spencer Tracy, Mary Pickford, Douglas Fairbanks, Roscoe Arbuckle czy Mack Sennett. Dziś strony te przeszły już dziesiątki metamorfoz jeśli chodzi o treść, ale satysfakcja pozostaje. W każdym razie: redaktorzy mieli całkiem sprawne narzędzia, które się rozwijały, a czytelnicy… no cóż, mieli czytać.
Od 2019 roku trwa wprowadzanie zmian, których pozornie nie widać, ale mają znacznie. To, że spis treści każdego artykuły znajduje się bezpośrednio w nim w formie szarej tabelki, a nie pasku bocznym, to była konkretna decyzja. Inna dotyczy tego, czy nagłówki długich artykułów powinny być początkowo zwinięte czy rozwinięte. Pamiętajcie, że mówimy o często bardzo długich tekstach i do tego niewygodnych to przeglądania na małym ekranie. Decyzji było oczywiście dużo, dużo więcej, ale już te przykłady pokazują, jak ciekawym zawodem jest projektant UX.
Cały artykuł przeczytacie tutaj: https://uxdesign.cc/design-notes-on-the-2023-wikipedia-redesign-d6573b9af28d
Na koniec nowy pomysł na domykanie biuletynu, a więc 2-3 rzeczy, które mogliście przegapić w mediach społecznościowych:
Dziękuję. Do zobaczenia za dwa tygodnie.