eGospodarka.pl
eGospodarka.pl poleca

eGospodarka.plPrawoGrupypl.soc.prawoNadchodzą nareszcie czasy kiedy ZJEBY prawnicze zastąpi sztuczna inteligencjaRe: Nadchodzą nareszcie czasy kiedy ZJEBY prawnicze zastąpi sztuczna inteligencja
  • Data: 2024-02-27 02:15:23
    Temat: Re: Nadchodzą nareszcie czasy kiedy ZJEBY prawnicze zastąpi sztuczna inteligencja
    Od: Kviat <k...@n...dla.spamu.pl> szukaj wiadomości tego autora
    [ pokaż wszystkie nagłówki ]

    W dniu 26.02.2024 o 16:29, J.F pisze:
    > On Mon, 26 Feb 2024 11:54:26 +0100, Kviat wrote:

    >>>
    >>> To powienien odpowiedziec "nie wiem".
    >>
    >> Nie powinien. Bo to nie jest sztuczna inteligencja, tylko model językowy
    >> - bardziej lub mniej złożony, ale na pewno nie sztuczna inteligencja.
    >> Już to tutaj tłumaczyłem, ale jak widać nie do wszystkich dotarło.
    >
    > Moze nie czytałem.
    > Model czy nie - duzo inteligencji potrzeba, aby zrozumiec pytanie i z
    > sensem odpowiedziec.

    Okazało się, że nie potrzeba wcale.
    Tam nie ma ani zrozumienia pytania, ani sensu odpowiedzi.
    To tylko subiektywne odczucie człowieka, więc żeby tego człowieka
    "oszukać" wystarczyło pod maską zapakować tylko (aż...) statystykę,
    prawdopodobieństwo itp.

    >> Posługiwanie się pojęciami "wiem" i "nie wiem" w kontekście tych
    >> narzędzi nie ma żadnego sensu. Ani "wie", ani "nie wie".
    >> Nie może odpowiedzieć "wiem" - bo by "skłamał.
    >> Nie może też odpowiedzieć "nie wiem" - bo też by skłamał (bo to by
    >> sugerowało, że wie coś innego, a tylko akurat tego nie).
    >
    > Nie bardzo widzę, jak taka odpowiedź miałaby cos sugerować,
    > ale przeciez cos wie ...

    Nie w takim sensie jak "wie" człowiek.

    W dużym uproszczeniu: jeżeli (statystycznie) często obok słowa "Ziemia"
    pojawia się w tekstach uczących bota inne słowo np. "okrągła", to
    dyskutując z takim botem odniesiesz wrażenie, że on "wie", że Ziemia
    jest okrągła, a nie np. płaska.
    Często też występuje słowo "płaska" (takich bzdur w internecie jest
    zadziwiająco dużo), więc dla takiego bota, to nie kwestia wiedzy, tylko
    statystyki - np. 75% "okrągła" i 25% "płaska".
    Jeśli do tego dołożysz prawdopodobieństwo, to częściej dostaniesz wynik,
    że jest okrągła, ale może się zdarzyć, że będzie cię "przekonywał", że
    jest płaska.
    Z tego nijak nie wynika, że wie, czy jest płaska, czy okrągła.

    To przykład, ale takich rzeczy jest dużo (chipy w szczepionkach,
    kretyńskie teorie spiskowe itp., ale nie tylko: teksty fantasy, s-f,
    poezja z przyciężkawymi metaforami kompletnie niezrozumiałymi dla
    niewyrobionego czytelnika, czy po prostu pozbawionymi sensu bez
    kontekstu całego wiersza, czy utworu, itd.) - stąd wrażenie, że taki bot
    czasem kłamie, albo że zmyśla.
    To poważny problem, który został zauważony już we wczesnych wersjach,
    więc podniósł się raban o fakenewsy i głupoty przekazywane ludziom przez
    boty.
    Ludzie byli (są nadal...) na to nieprzygotowani, nie rozumieją narzędzia
    (czego przykłady są w tym wątku) którego używają, bezpodstawnie (i
    bezwiednie) personifikują go i przypisują mu intencje.

    Obecne AI radzą sobie z tym dużo lepiej (ale nie dzięki własnej
    "wiedzy", lecz głównie dzięki ręcznej-ludzkiej klasyfikacji treści,
    którymi się je karmi).
    Nadal możesz kazać napisać mu coś na temat np. latających słoni, napisze
    rozprawkę, esej, czy cośtam, ale przy okazji mocno podkreśli, że
    latające słonie w rzeczywistości nie istnieją.
    Z tego nijak nie wynika, że taki bot wie, czy latające słonie istnieją,
    czy nie.

    A jak będziesz za bardzo się upierał w sprawie płaskiej Ziemi, to po
    prostu zakończy dyskusję i już. Nie dlatego, że chciał, lecz dlatego, że
    tak go zaprogramowano.

    >> Zapytaj kostkę do gry przed rzuceniem, czy _wie_ ile oczek wypadnie.
    >> Albo zapytaj po rzuceniu, czy _wiedziała_ ile oczek wypadnie.
    >> Rzucisz kostką, to kostka zrobi co powinna i wypadnie ileś tam oczek.
    >> A że spodziewałeś się innego wyniku... to nie znaczy, że wynik był zły,
    >> czy głupi, czy nieprawdziwy, czy bezwartościowy, czy może akurat wypadło
    >> tyle ile się spodziewałeś.
    >
    > No ale pomijając, ze kostka jest "głupia" i nie wie, to przeciez moze
    > odpowiedziec.

    No i odpowie: poturla się i jedna z powierzchni będzie u góry. A jak
    będzie kiepsko wyważona, to częściej będzie wypadać jakiś wynik, a
    rzadziej inny. Nie istnieją idealne kostki.

    Jak z tego ma wynikać, że kostka wie co wypadnie, albo co wypadło?

    > Ja będę rzucał kostką, i ja będę odpowiadal - tak może być?

    Nie rozumiem pytania.
    Będziesz sam siebie pytał i sam sobie odpowiesz?

    Boty AI nie odpowiadają na pytania.
    One generują treści na podstawie wyuczonego modelu. Wpuszczasz tekst na
    wejście, dostajesz jakiś tekst na wyjściu.
    To, czy ten tekst jest wartościowy dla ciebie oceniasz ty (tak jak wynik
    rzutu kostką).
    Rozumienie przez nie kontekstu zapytania jest pozorne, to czysta
    matematyka+ręczna klasyfikacja przez armię taniej siły roboczej
    wrzucającej do niej treści podczas uczenia.
    Np. wrzucasz mu zdjęcie kotka i zaznaczasz "ptaszek" to jest kotek.
    To jest piesek, to jest myszka itd.
    To jest kotek leżący, a to jest kotek stojący...
    W dużym uproszczeniu, bo z tekstami jest podobnie, dlatego ma się
    wrażenie, że "rozumie" kontekst - jak piszesz z nim o zamkach i
    rycerzach, to nie będzie odpowiadał tekstami o zamkach do zamykania
    drzwi - z tego nijak nie wynika, że wie co to jest zamek.
    Z drugiej strony, jak będziesz "rozmawiał" z botem eksperckim od zamków
    od drzwi, to nijak sam z siebie nie wygeneruje tekstu z rycerzami.


    >> Więc jak najbardziej zrobił to co powinien, czyli wypluł jakąś informację.
    >> Ogarnął to, do czego miał dostęp i w/g modelu, który został mu narzucony
    >> ("wyuczony"), przetworzył i wypluł wynik.
    >> Podał zlepek słów/fraz/zdań pozlepianych w/g jakichś tam zasad
    >> prawdopodobieństwa z kombinacją wynikającą ze statystyki i paru innych
    >> rzeczy z zasobu, którym dysponuje.
    >> A nie najbardziej prawidłowy.
    >> Zasób ma duży, model pieruńsko rozbudowany i skomplikowany, więc dlatego
    >> czasem ma się wrażenie, że dostaje się coś wartościowego, a czasem, że
    >> to głupoty.
    >
    > Model ma pierunsko rozbudowany.
    > Tylko nie wiem, czemu "model" a nie "baza wiedzy.

    Bo bazą wiedzy go karmisz podczas nauki. W wyniku tej nauki dostajesz
    model (model sieci neuronowej - w dużym uproszczeniu).

    Przykład:
    Masz bazę wiedzy, 100000 zdjęć różnych kotków i 100000 zdjęć różnych
    piesków.
    Twoim celem jest zbudowanie bota, który po zapodaniu mu przez ciebie
    zdjęcia (kotka, albo psa) odpowie, czy to był kotek, czy pies.

    Wrzucasz mu zdjęcie kotka - zaznaczasz kotek, wrzucasz mu zdjęcie psa -
    zaznaczasz pies itd. 200000 razy. Uczysz go.
    W ten sposób tworzysz model AI.
    I ten model już nie potrzebuje tych 200000 zdjęć kotków i psów żeby
    rozpoznać, czy na zdjęciu (spoza puli uczącej) jest kotek, czy pies.

    Teraz możesz komuś przekazać taki model i on będzie prawidłowo
    rozpoznawał kotki i pieski, pomimo tego, że nie przekazałeś tych 200000
    zdjęć kotków i piesków, czyli bazy wiedzy.

    Podobnie działają np. programy do odczytywania pisma ręcznego. Przecież
    to nie jest tak, że ściągasz taki program razem z pierdyliardem próbek
    odręcznego pisma i on podczas swojego działania za każdym razem
    przeszukuje swoją "bazę wiedzy". Ta baza wiedzy była potrzebna tylko do
    nauki.

    Dlatego zawsze jest mowa o poziomie komplikacji _modelu_, a nie bazie
    wiedzy. Baza wiedzy, to tylko "makulatura". Nie ma nic skomplikowanego w
    zdjęciu kotka.
    Tą samą makulaturą można "nakarmić" różne modele z różnymi rezultatami.

    > Zadaje pytanie
    > "jak najlepiej sprawdzic w Pythonie czy zmienna zawiera liczbę
    > całkowitą?"
    >
    > Dostaję kilka dobrych odpowiedzi, bo pytanie okazuje się nie całkiem
    > jasne, a kontekst szeroki.
    >
    > wiec precyzuję
    > "jak najlepiej sprawdzic w Pythonie czy zmienna typu float zawiera
    > liczbę całkowitą ?"
    >
    > Dostaję 3 dobre odpowiedzi.
    >
    > "która metoda jest najlepsza?"
    >
    > I znów odpisuje z sensem, i chyba dobrze.

    No i?
    Gdzie tu przejaw inteligencji?


    >> To tylko subiektywne wrażenie odbiorcy (tak jak z kostką do gry), a nie
    >> intencjonalne wypisywanie przez "sztuczną inteligencję" głupot i/lub
    >> wartościowych rzeczy. Tak jak kostka do gry nie losuje złośliwie ilości
    >> oczek, których akurat nie obstawiłeś.
    >>
    >> I to również tak, jakby mieć pretensje do "sztucznej inteligencji",
    >> która została zrobiona do generowania kreskówkowych obrazków, że nie
    >> wygenerowała fotorealistycznego zdjęcia pomimo, że została "poproszona"
    >> o fotorealistyczne zdjęcie.
    >> Od narzędzia do generowania kreskówkowych obrazków dostajesz w wyniku
    >> kreskówkowy obrazek i narzekasz, że słabo i do fotorealistycznych zdjęć
    >> to ta sztuczna inteligencja nie dojrzała...
    >
    > To maszyny Trurla miały więcej asertywności :-)
    >
    >> Przerażający jest ten brak zrozumienia w społeczeństwie czym jest i jak
    >> działa ta cała "sztuczna inteligencja".
    >
    > Ale wysyp tych różnych SI jest imponujący ...

    Imponujące jest łączenie tych technologii, a nie sam wysyp.

    Np.
    https://www.komputerswiat.pl/aktualnosci/nauka-i-tec
    hnika/sztuczna-inteligencja-rozwiazala-problem-matem
    atyczny-ale-tworcy-nie-wiedza-dlaczego/vkrbjbp

    Powrotu do zdrowia życzę.
    Piotr




Podziel się

Poleć ten post znajomemu poleć

Wydrukuj ten post drukuj


Następne wpisy z tego wątku

Najnowsze wątki z tej grupy


Najnowsze wątki

Szukaj w grupach

Eksperci egospodarka.pl

1 1 1