-
Data: 2024-02-27 02:15:23
Temat: Re: Nadchodzą nareszcie czasy kiedy ZJEBY prawnicze zastąpi sztuczna inteligencja
Od: Kviat <k...@n...dla.spamu.pl> szukaj wiadomości tego autora
[ pokaż wszystkie nagłówki ]W dniu 26.02.2024 o 16:29, J.F pisze:
> On Mon, 26 Feb 2024 11:54:26 +0100, Kviat wrote:
>>>
>>> To powienien odpowiedziec "nie wiem".
>>
>> Nie powinien. Bo to nie jest sztuczna inteligencja, tylko model językowy
>> - bardziej lub mniej złożony, ale na pewno nie sztuczna inteligencja.
>> Już to tutaj tłumaczyłem, ale jak widać nie do wszystkich dotarło.
>
> Moze nie czytałem.
> Model czy nie - duzo inteligencji potrzeba, aby zrozumiec pytanie i z
> sensem odpowiedziec.
Okazało się, że nie potrzeba wcale.
Tam nie ma ani zrozumienia pytania, ani sensu odpowiedzi.
To tylko subiektywne odczucie człowieka, więc żeby tego człowieka
"oszukać" wystarczyło pod maską zapakować tylko (aż...) statystykę,
prawdopodobieństwo itp.
>> Posługiwanie się pojęciami "wiem" i "nie wiem" w kontekście tych
>> narzędzi nie ma żadnego sensu. Ani "wie", ani "nie wie".
>> Nie może odpowiedzieć "wiem" - bo by "skłamał.
>> Nie może też odpowiedzieć "nie wiem" - bo też by skłamał (bo to by
>> sugerowało, że wie coś innego, a tylko akurat tego nie).
>
> Nie bardzo widzę, jak taka odpowiedź miałaby cos sugerować,
> ale przeciez cos wie ...
Nie w takim sensie jak "wie" człowiek.
W dużym uproszczeniu: jeżeli (statystycznie) często obok słowa "Ziemia"
pojawia się w tekstach uczących bota inne słowo np. "okrągła", to
dyskutując z takim botem odniesiesz wrażenie, że on "wie", że Ziemia
jest okrągła, a nie np. płaska.
Często też występuje słowo "płaska" (takich bzdur w internecie jest
zadziwiająco dużo), więc dla takiego bota, to nie kwestia wiedzy, tylko
statystyki - np. 75% "okrągła" i 25% "płaska".
Jeśli do tego dołożysz prawdopodobieństwo, to częściej dostaniesz wynik,
że jest okrągła, ale może się zdarzyć, że będzie cię "przekonywał", że
jest płaska.
Z tego nijak nie wynika, że wie, czy jest płaska, czy okrągła.
To przykład, ale takich rzeczy jest dużo (chipy w szczepionkach,
kretyńskie teorie spiskowe itp., ale nie tylko: teksty fantasy, s-f,
poezja z przyciężkawymi metaforami kompletnie niezrozumiałymi dla
niewyrobionego czytelnika, czy po prostu pozbawionymi sensu bez
kontekstu całego wiersza, czy utworu, itd.) - stąd wrażenie, że taki bot
czasem kłamie, albo że zmyśla.
To poważny problem, który został zauważony już we wczesnych wersjach,
więc podniósł się raban o fakenewsy i głupoty przekazywane ludziom przez
boty.
Ludzie byli (są nadal...) na to nieprzygotowani, nie rozumieją narzędzia
(czego przykłady są w tym wątku) którego używają, bezpodstawnie (i
bezwiednie) personifikują go i przypisują mu intencje.
Obecne AI radzą sobie z tym dużo lepiej (ale nie dzięki własnej
"wiedzy", lecz głównie dzięki ręcznej-ludzkiej klasyfikacji treści,
którymi się je karmi).
Nadal możesz kazać napisać mu coś na temat np. latających słoni, napisze
rozprawkę, esej, czy cośtam, ale przy okazji mocno podkreśli, że
latające słonie w rzeczywistości nie istnieją.
Z tego nijak nie wynika, że taki bot wie, czy latające słonie istnieją,
czy nie.
A jak będziesz za bardzo się upierał w sprawie płaskiej Ziemi, to po
prostu zakończy dyskusję i już. Nie dlatego, że chciał, lecz dlatego, że
tak go zaprogramowano.
>> Zapytaj kostkę do gry przed rzuceniem, czy _wie_ ile oczek wypadnie.
>> Albo zapytaj po rzuceniu, czy _wiedziała_ ile oczek wypadnie.
>> Rzucisz kostką, to kostka zrobi co powinna i wypadnie ileś tam oczek.
>> A że spodziewałeś się innego wyniku... to nie znaczy, że wynik był zły,
>> czy głupi, czy nieprawdziwy, czy bezwartościowy, czy może akurat wypadło
>> tyle ile się spodziewałeś.
>
> No ale pomijając, ze kostka jest "głupia" i nie wie, to przeciez moze
> odpowiedziec.
No i odpowie: poturla się i jedna z powierzchni będzie u góry. A jak
będzie kiepsko wyważona, to częściej będzie wypadać jakiś wynik, a
rzadziej inny. Nie istnieją idealne kostki.
Jak z tego ma wynikać, że kostka wie co wypadnie, albo co wypadło?
> Ja będę rzucał kostką, i ja będę odpowiadal - tak może być?
Nie rozumiem pytania.
Będziesz sam siebie pytał i sam sobie odpowiesz?
Boty AI nie odpowiadają na pytania.
One generują treści na podstawie wyuczonego modelu. Wpuszczasz tekst na
wejście, dostajesz jakiś tekst na wyjściu.
To, czy ten tekst jest wartościowy dla ciebie oceniasz ty (tak jak wynik
rzutu kostką).
Rozumienie przez nie kontekstu zapytania jest pozorne, to czysta
matematyka+ręczna klasyfikacja przez armię taniej siły roboczej
wrzucającej do niej treści podczas uczenia.
Np. wrzucasz mu zdjęcie kotka i zaznaczasz "ptaszek" to jest kotek.
To jest piesek, to jest myszka itd.
To jest kotek leżący, a to jest kotek stojący...
W dużym uproszczeniu, bo z tekstami jest podobnie, dlatego ma się
wrażenie, że "rozumie" kontekst - jak piszesz z nim o zamkach i
rycerzach, to nie będzie odpowiadał tekstami o zamkach do zamykania
drzwi - z tego nijak nie wynika, że wie co to jest zamek.
Z drugiej strony, jak będziesz "rozmawiał" z botem eksperckim od zamków
od drzwi, to nijak sam z siebie nie wygeneruje tekstu z rycerzami.
>> Więc jak najbardziej zrobił to co powinien, czyli wypluł jakąś informację.
>> Ogarnął to, do czego miał dostęp i w/g modelu, który został mu narzucony
>> ("wyuczony"), przetworzył i wypluł wynik.
>> Podał zlepek słów/fraz/zdań pozlepianych w/g jakichś tam zasad
>> prawdopodobieństwa z kombinacją wynikającą ze statystyki i paru innych
>> rzeczy z zasobu, którym dysponuje.
>> A nie najbardziej prawidłowy.
>> Zasób ma duży, model pieruńsko rozbudowany i skomplikowany, więc dlatego
>> czasem ma się wrażenie, że dostaje się coś wartościowego, a czasem, że
>> to głupoty.
>
> Model ma pierunsko rozbudowany.
> Tylko nie wiem, czemu "model" a nie "baza wiedzy.
Bo bazą wiedzy go karmisz podczas nauki. W wyniku tej nauki dostajesz
model (model sieci neuronowej - w dużym uproszczeniu).
Przykład:
Masz bazę wiedzy, 100000 zdjęć różnych kotków i 100000 zdjęć różnych
piesków.
Twoim celem jest zbudowanie bota, który po zapodaniu mu przez ciebie
zdjęcia (kotka, albo psa) odpowie, czy to był kotek, czy pies.
Wrzucasz mu zdjęcie kotka - zaznaczasz kotek, wrzucasz mu zdjęcie psa -
zaznaczasz pies itd. 200000 razy. Uczysz go.
W ten sposób tworzysz model AI.
I ten model już nie potrzebuje tych 200000 zdjęć kotków i psów żeby
rozpoznać, czy na zdjęciu (spoza puli uczącej) jest kotek, czy pies.
Teraz możesz komuś przekazać taki model i on będzie prawidłowo
rozpoznawał kotki i pieski, pomimo tego, że nie przekazałeś tych 200000
zdjęć kotków i piesków, czyli bazy wiedzy.
Podobnie działają np. programy do odczytywania pisma ręcznego. Przecież
to nie jest tak, że ściągasz taki program razem z pierdyliardem próbek
odręcznego pisma i on podczas swojego działania za każdym razem
przeszukuje swoją "bazę wiedzy". Ta baza wiedzy była potrzebna tylko do
nauki.
Dlatego zawsze jest mowa o poziomie komplikacji _modelu_, a nie bazie
wiedzy. Baza wiedzy, to tylko "makulatura". Nie ma nic skomplikowanego w
zdjęciu kotka.
Tą samą makulaturą można "nakarmić" różne modele z różnymi rezultatami.
> Zadaje pytanie
> "jak najlepiej sprawdzic w Pythonie czy zmienna zawiera liczbę
> całkowitą?"
>
> Dostaję kilka dobrych odpowiedzi, bo pytanie okazuje się nie całkiem
> jasne, a kontekst szeroki.
>
> wiec precyzuję
> "jak najlepiej sprawdzic w Pythonie czy zmienna typu float zawiera
> liczbę całkowitą ?"
>
> Dostaję 3 dobre odpowiedzi.
>
> "która metoda jest najlepsza?"
>
> I znów odpisuje z sensem, i chyba dobrze.
No i?
Gdzie tu przejaw inteligencji?
>> To tylko subiektywne wrażenie odbiorcy (tak jak z kostką do gry), a nie
>> intencjonalne wypisywanie przez "sztuczną inteligencję" głupot i/lub
>> wartościowych rzeczy. Tak jak kostka do gry nie losuje złośliwie ilości
>> oczek, których akurat nie obstawiłeś.
>>
>> I to również tak, jakby mieć pretensje do "sztucznej inteligencji",
>> która została zrobiona do generowania kreskówkowych obrazków, że nie
>> wygenerowała fotorealistycznego zdjęcia pomimo, że została "poproszona"
>> o fotorealistyczne zdjęcie.
>> Od narzędzia do generowania kreskówkowych obrazków dostajesz w wyniku
>> kreskówkowy obrazek i narzekasz, że słabo i do fotorealistycznych zdjęć
>> to ta sztuczna inteligencja nie dojrzała...
>
> To maszyny Trurla miały więcej asertywności :-)
>
>> Przerażający jest ten brak zrozumienia w społeczeństwie czym jest i jak
>> działa ta cała "sztuczna inteligencja".
>
> Ale wysyp tych różnych SI jest imponujący ...
Imponujące jest łączenie tych technologii, a nie sam wysyp.
Np.
https://www.komputerswiat.pl/aktualnosci/nauka-i-tec
hnika/sztuczna-inteligencja-rozwiazala-problem-matem
atyczny-ale-tworcy-nie-wiedza-dlaczego/vkrbjbp
Powrotu do zdrowia życzę.
Piotr
Następne wpisy z tego wątku
- 27.02.24 03:52 Marcin Debowski
- 27.02.24 03:56 Marcin Debowski
- 27.02.24 06:23 Shrek
- 29.02.24 01:53 Marcin Debowski
- 29.02.24 06:39 Shrek
- 29.02.24 10:31 J.F
- 29.02.24 10:34 J.F
- 29.02.24 10:40 J.F
- 01.03.24 04:19 Marcin Debowski
Najnowsze wątki z tej grupy
- Re: Dla mr. J.F`a, Trybuna i Wiesiaczka którzy "troszczą" się o państwowe i u których 0 pragmatyzmu
- Re: Dla mr. J.F`a, Trybuna i Wiesiaczka którzy "troszczą" się o państwowe i u których 0 pragmatyzmu
- Re: Dla mr. J.F`a, Trybuna i Wiesiaczka którzy "troszczą" się o państwowe i u których 0 pragmatyzmu
- Re: Antysemici z MTK w Hadze wydali nakazy aresztowania [Izrael odrzuca "fałszywe i absurdalne zarzuty"]
- Ania zaginela
- Sprawdź PESEL w mObywatel
- Wzorcowa interwencja
- Akta sprawy Kajetan Poznański
- Dobra zmiana
- Czy prezydent może ułaskawić od zadośćuczynienia? [A. Lepper odszkodowania]
- ekstradycja
- Marsz niepodległości
- TVN donosi: Obywatelskie zatrzymanie policjanta (nie na służbie)
- znaj podstawe
- Art. 118. [Terminy przedawnienia]
Najnowsze wątki
- 2024-11-21 Re: Dla mr. J.F`a, Trybuna i Wiesiaczka którzy "troszczą" się o państwowe i u których 0 pragmatyzmu
- 2024-11-21 Re: Dla mr. J.F`a, Trybuna i Wiesiaczka którzy "troszczą" się o państwowe i u których 0 pragmatyzmu
- 2024-11-21 Re: Dla mr. J.F`a, Trybuna i Wiesiaczka którzy "troszczą" się o państwowe i u których 0 pragmatyzmu
- 2024-11-21 Re: Antysemici z MTK w Hadze wydali nakazy aresztowania [Izrael odrzuca "fałszywe i absurdalne zarzuty"]
- 2024-11-21 Ania zaginela
- 2024-11-21 Sprawdź PESEL w mObywatel
- 2024-11-18 Wzorcowa interwencja
- 2024-11-16 Akta sprawy Kajetan Poznański
- 2024-11-14 Dobra zmiana
- 2024-11-14 Czy prezydent może ułaskawić od zadośćuczynienia? [A. Lepper odszkodowania]
- 2024-11-12 ekstradycja
- 2024-11-11 Marsz niepodległości
- 2024-11-10 TVN donosi: Obywatelskie zatrzymanie policjanta (nie na służbie)
- 2024-11-08 znaj podstawe
- 2024-11-06 Art. 118. [Terminy przedawnienia]