czwartek, 27 czerwca 2024

No to sru

Jakiś czas temu w świecie około-ai zrobiło się ciekawej, a to za sprawą Joanny Maciejewski (więcej tutaj https://scoop.upworthy.com/author-explains-why-ai-should-do-mundane-jobs-instead-of-art-and-perfectly-hits-the-nail-on-the-head ). Zauważyła, że kierunek jaki nadany ai, w gruncie rzeczy jest zły i zamiast wyręczać ludzi w przyziemnych sprawach, docelowo ma im odebrać pracę i nierzadko pasję. Co prawda sam tego nie widzę, ktokolwiek próbował zaangażować AI dowolny model, funkcjonalny etc. do czegoś innego niż analiza raportu księgowego (swoją drogą może to zrobić excel, ten jeszcze bez ai w tle). Nie ogarnia analizy ruchu sieciowego, nie rozumie odbiegających od norm zachowań użytkowników itd. itd. Ale to mnie dziwi, skoro ludzie do big data tego nie ogarniają (z życia wzięte), to czemu szkolona przez nich (lub im podobni) ai ma to skumać. Dostawałem dostęp i sam też się gdzieś wprosiłem, żeby sprawdzić, czy mogę zautomatyzować swoją pracę. No powiem, że średnio to mało powiedziane, jak chujowo faktycznie było. Owszem, do przeszukania kilkudziesięciu tysięcy rekordów w celu wyszukania anomalii jest świetne, ale... no właśnie ALE. Bez zadanych kryteriów nie potrafi ogarnąć czego ma szukać. A jeżeli mam samodzielnie zdawać kryteria, to równie dobrze mogę sobie to ogarnąć w SQL. Dodatkowo gdybym chciał podłączyć do tego jakąś bazę z danymi (jakimikolwiek) posiadającą jakąś wartość na rynku... to pytanie co zrobi z tym ai? Komuś zakapuje, a może wyjdzie bokiem? Poleciłbym analizie śmieci, które generuje, ale uwaga, w modelach rynkowych nie spotkałem się z możliwością nawet zobaczenia takich danych, bo uwaga, są własnością firmy, która udostępnia usługę... ai ;]

Wspomnę, że spróbowałem wykorzystać ai do napisania HTMLa strony z wykorzystaniem CSS i JS. No powiem, że wyszło komicznie. Efekty nie dorastały nawet do generatorów stron sprzed dekady. Ale rozbawił mnie finał. Kilka modeli napisało mi, że skoro mam wiedzę w tworzeniu stron, to może sam bym napisał. Mam wrażenie, że każde ai jak ma braki to łączy się z czatgpt.

A może ktoś się bawił grafiką? Jeżeli nie ma się wyobraźni, ani jakichkolwiek wymagań, to spoko. Znajoma, która trenuje ai graficzne, stwierdza, że to  i tak dalej jest robota dla grafika/artysty. Znajomość kompozycji, dobór palety, a i często ręczne poprawki. Dla katalogów sklepowych ok. Do wypełniania elementów genetycznych (a to jest na rynku od lat i średnio ma się do ai) jak najbardziej ok. I do memów, rolek, jak najbardziej.

Na szczęście nie jest jednak tragicznie. Sam koncept tworzenia wideo, w naprawdę krótkim czasie, jest imponujący. Najbardziej zachwyca mnie np. stworzenie dubbingu do filmu, tyle, że tutaj trzeba już zapłacić (im lepsza jakość, tym więcej i... dłużej). Swoją drogą na próbę dorzuciłem jeszcze jedno zadanie, nie wyszło za dobrze, ale jednak coś było. Poprosiłem jeszcze o opis tego co się dzieje w filmie dla osoby niewidomej/niedowidzącej. Myślę, że to byłby właściwy kierunek. Oprócz przejmowania nużących obowiązków o których wspomniała Joanna Maciejewska, świetnym pomysłem na przezwyciężenia ograniczeń z jakimi borykają się ludzie.

Po eksperymencie z wideo, postanowiłem wrócić do podstaw. Zamiast szukać rozwiązania zadania z matematyki, zacząłem zadawać pytania, jak je rozwiązać. IMO zdecydowanie jest lepszy gemini od czatgpt. Pomijam, że nie jest protekcjonalnym chujem, ale skupia się na tym co ma przekazać i wrzuca zbędnych opisów. Polecam zabawie, możecie też określić poziom szkoły/klasy na jakim ma być zrozumiały.

Jakoś sobie radzi z matematyką, fizyką, chemią, gorzej z biologią. Nie pokładałbym też zbytniego zaufania jeżeli chodzi o historię czy literaturę.

Wydaje mi się, że to do czego jest prezentowane ai tak naprawdę ma na celu zredukowanie zarobków określonych grup zawodowych. O tym inną razą. 

sobota, 15 czerwca 2024

Nocne grzanie

Piątek, parę minut przed północą. Ona od kilku minut dochodzi. Jego nie słychać. Zapewne jest skupiony. Poza tym słychać szum wentylatora. Za oknem 23oC. W końcu ocieplenie mamy. 

Przez ostatnie kilka dni było przyjemnie, co prawda w dzień, temperatura oscylowała w okolicach 25oC, ale w nocy bywało poniżej 15. Wczoraj temperatura spadła do 10. A skąd to wiem? No cóż.

Obudziłem się zlany potem. Ani koszmaru, ani choróbska na horyzoncie. Po prostu włączyła się pogodynka i zaczęła grzać. Nie ma możliwości wyłączenia eleganckich rur poprowadzonych po ścianie. Okna nie da się bardziej otworzyć, żeby chociaż w nocy poczuć chłód.

Z jednej strony trochę zazdroszczę tym wszystkim, którzy sprowadzili się do miasta. Im jest wiecznie zimno, a na nadchodzące upały będą im niestraszne. W swoich wcześniejszych lokalach włączali ogrzewanie, kiedy tylko chcieli. Nawet w lecie. A propos lata, do czasu podwyżek za energię przez ostatnie lata kaloryfery grzały dodatkowo do czerwca lub lipca i to wtedy, kiedy już w marcu termometr w cieniu pokazywał temperatury niedalekie trzydziestu.


czwartek, 13 czerwca 2024

Szprytne automaty

Dzisiejsza publikacja moich fotkowych koteltów otrzymała ograniczenie w widoczności. Podejrzenie treści nagości i seksualności. Ojej. Czym prędzej kliknąłem – veto! Po godzinie, ktoś kliknął, że spoko się pomyliło.

Wydarzyły się tutaj dwie zabawne rzeczy. Z jednej strony nie mam jakiś szczególnych pretensji. W końcu ograniczono widoczność tych zdjęć i faktycznie dobrze, by się stało gdyby faktycznie były na tych fotkach rzeczy dziwne, czy też niestosowne.

Pierwsza rzecz. Zadziałał automat, pewnie jeszcze nie AI, ale pewnie już niedługo pojawi się branding nasze EJAJ dba o cnoty oczów waszych dzieciąt. Automaty nie potrafią rozpoznać tego co jest na zdjęciu. Do swojej bazy, mają wprowadzone setki, tysiące, być może miliony schematów opisanych. Przyznam, że jako laikowi, który to widział trudno mi jest tak dobrze przekazać. Ale weźmiemy ludzką twarz, podzielimy ją na części składowe, czoło, nos, oczy uszy etc. Teraz sfotografowane są z każdej możliwej strony. Nie należy zapominać, o kolorze skóry, etnicznych różnicach, wieku czy płci. Oczywiście dobry model potrafi różne elementy sobie poukładać w różny sposób, dopasować, przeskalować etc. I teraz, jeżeli na kiepski model spojrzał by człowiek, jego mózg wypełniłby niedoskonałości czy nieciągłości wyglądu takiej twarzy. Automat nie ma takiego mózgu, który przechodził ewolucję, i to co u nas dzieje się na poziomie podświadomym bez naszego aktywnego, świadomego udziału, automat w oparciu o wprowadzony algorytm musi to dopasować. Jednak ze względna na cięcia i przede wszystkim koszt obciążenia, redukuje się złożoność takiego procesu. Można powiedzieć, że automat generalizuje twarz. Upraszcza ją. Jeżeli ją rozpozna, daje określony komunikat lub to co ma zrobić według żadnego programu postępowania. I tu przechodzimy do moich fotek. Było sporo czerwieni, trochę niebieskiego i zielonego. Z jakiegoś powodu czerwony kwiatostan kasztan został za pomocą uproszczenia przypisany do zdjęć nieprzyzwoitych. Z czystej ciekawości, chciałbym zobaczyć dane, na podstawie, których tak zakwalifikował fotki.

Druga rzecz, może już nie tak interesująca, ale przerażająca w zbliżającej się perspektywie dominacji AI. Moje odwołanie (to jest tylko moje założenie) zostało zrealizowane przez człowieka, który znudzony spojrzał na zdjęcia i nie zobaczył niczego niestosownego. No może, zostało urażone jego poczucie estetyki. Tyle, że w przypadku automatu weryfikującego może nastąpić glitch i jak w Brazil oberwie Archibald Buttle a nie Archibald Tuttle.


niedziela, 9 czerwca 2024

Boje i przeboje z durną inteligencją

W aplikacji graficznej, z której korzystam, by dodać automatyczne ramki do zdjęcia – funkcja została teraz nazwana się AI. Chłopaki (przykro mi, ale dziewcząt nie widziałem na prezentacji) z OpenAI pokazują jak potrafi w locie tłumaczyć ich AI z jednego języka na drugi. Ciekawe jest to, że w prezentacji używają tylko angielskiego i hiszpańskiego. Pomijam szereg translatorów w tym Yandex Translator, który najlepiej ogarnia języki słowiańskie, DeepL, który nawet w wersji darmowej bije wszystkie inne, Google Translator do mowy potocznej, świetnie ogarnięte kolokwializmy czy Bing Microsoft Translator do zdecydowanie formalnego (nie mam potwierdzonych informacji, ale wydaje mi się, że OpenAI korzysta właśnie z tego). No więc tego. Przed AI tego nie było. Są też inne przykłady. Inserty do skryptów, to też już AI. Branding AI. Niedługo kibel z foto komórką będzie obrandowany AI. Twoje gówno spłucze EJAJ.

W ramach zabaw z generatorem grafik, do którego używa się języka opisowego (dawniej input, teraz prompt) pokazałem znajomym ciekawą zależność. Poprosiłem, by podali pomysł na rysunek, potem napisałem prompt i puściłem. Wyszły fajne graficzki. Spytałem się, co by chcieli zmienić. No i się zaczęło. Otóż, nieważne jak dobry będzie prompt, nie da się z gotowej grafiki usunąć pewnych elementów, które pojawiły się już na pierwszych propozycjach. Dodatkowo, żadne (na chwilę kiedy to piszę) z dostępnych za darmo nie potrafi odnieść się i wprowadzić żądnych zmian na wygenerowanej przez siebie grafice.

Aktualnie tekst piszę z pomocą AI w procesorze tekstu. I uwaga, słynny słownik T9 to był pikuś. Jak tylko użyję zapożyczonego słowa z angielskiego, od razu poprawia mi całe zdanie. Nie potrafi też odpierdolić się od przymiotników, skracając je do podstawowej formy.

czwartek, 6 czerwca 2024

Wideło

Nie powiem, że nie lubię obejrzeć sobie materiału wideo. Ale… to co ja lubię to już inna liga. Nieodżałowanej pamięci vine dawał coś czego inne platformy nie dają. Ograniczenia. 6 sekund. 6 sekund w których dzisiejsi nadawcy, bo grzechem nazwać jest większość twórcami, nie mieliby szans zaistnieć. A było tam wszystko od klimatycznych statycznych ujęć, przez wystąpienie osób (powtarzam, 6 sekund), do efektów specjalnych.

No to sru

Jakiś czas temu w świecie około-ai zrobiło się ciekawej, a to za sprawą Joanny Maciejewski (więcej tutaj https://scoop.upworthy.com/author-e...