-
41. Data: 2024-02-27 02:15:23
Temat: Re: Nadchodzą nareszcie czasy kiedy ZJEBY prawnicze zastąpi sztuczna inteligencja
Od: Kviat <k...@n...dla.spamu.pl>
W dniu 26.02.2024 o 16:29, J.F pisze:
> On Mon, 26 Feb 2024 11:54:26 +0100, Kviat wrote:
>>>
>>> To powienien odpowiedziec "nie wiem".
>>
>> Nie powinien. Bo to nie jest sztuczna inteligencja, tylko model językowy
>> - bardziej lub mniej złożony, ale na pewno nie sztuczna inteligencja.
>> Już to tutaj tłumaczyłem, ale jak widać nie do wszystkich dotarło.
>
> Moze nie czytałem.
> Model czy nie - duzo inteligencji potrzeba, aby zrozumiec pytanie i z
> sensem odpowiedziec.
Okazało się, że nie potrzeba wcale.
Tam nie ma ani zrozumienia pytania, ani sensu odpowiedzi.
To tylko subiektywne odczucie człowieka, więc żeby tego człowieka
"oszukać" wystarczyło pod maską zapakować tylko (aż...) statystykę,
prawdopodobieństwo itp.
>> Posługiwanie się pojęciami "wiem" i "nie wiem" w kontekście tych
>> narzędzi nie ma żadnego sensu. Ani "wie", ani "nie wie".
>> Nie może odpowiedzieć "wiem" - bo by "skłamał.
>> Nie może też odpowiedzieć "nie wiem" - bo też by skłamał (bo to by
>> sugerowało, że wie coś innego, a tylko akurat tego nie).
>
> Nie bardzo widzę, jak taka odpowiedź miałaby cos sugerować,
> ale przeciez cos wie ...
Nie w takim sensie jak "wie" człowiek.
W dużym uproszczeniu: jeżeli (statystycznie) często obok słowa "Ziemia"
pojawia się w tekstach uczących bota inne słowo np. "okrągła", to
dyskutując z takim botem odniesiesz wrażenie, że on "wie", że Ziemia
jest okrągła, a nie np. płaska.
Często też występuje słowo "płaska" (takich bzdur w internecie jest
zadziwiająco dużo), więc dla takiego bota, to nie kwestia wiedzy, tylko
statystyki - np. 75% "okrągła" i 25% "płaska".
Jeśli do tego dołożysz prawdopodobieństwo, to częściej dostaniesz wynik,
że jest okrągła, ale może się zdarzyć, że będzie cię "przekonywał", że
jest płaska.
Z tego nijak nie wynika, że wie, czy jest płaska, czy okrągła.
To przykład, ale takich rzeczy jest dużo (chipy w szczepionkach,
kretyńskie teorie spiskowe itp., ale nie tylko: teksty fantasy, s-f,
poezja z przyciężkawymi metaforami kompletnie niezrozumiałymi dla
niewyrobionego czytelnika, czy po prostu pozbawionymi sensu bez
kontekstu całego wiersza, czy utworu, itd.) - stąd wrażenie, że taki bot
czasem kłamie, albo że zmyśla.
To poważny problem, który został zauważony już we wczesnych wersjach,
więc podniósł się raban o fakenewsy i głupoty przekazywane ludziom przez
boty.
Ludzie byli (są nadal...) na to nieprzygotowani, nie rozumieją narzędzia
(czego przykłady są w tym wątku) którego używają, bezpodstawnie (i
bezwiednie) personifikują go i przypisują mu intencje.
Obecne AI radzą sobie z tym dużo lepiej (ale nie dzięki własnej
"wiedzy", lecz głównie dzięki ręcznej-ludzkiej klasyfikacji treści,
którymi się je karmi).
Nadal możesz kazać napisać mu coś na temat np. latających słoni, napisze
rozprawkę, esej, czy cośtam, ale przy okazji mocno podkreśli, że
latające słonie w rzeczywistości nie istnieją.
Z tego nijak nie wynika, że taki bot wie, czy latające słonie istnieją,
czy nie.
A jak będziesz za bardzo się upierał w sprawie płaskiej Ziemi, to po
prostu zakończy dyskusję i już. Nie dlatego, że chciał, lecz dlatego, że
tak go zaprogramowano.
>> Zapytaj kostkę do gry przed rzuceniem, czy _wie_ ile oczek wypadnie.
>> Albo zapytaj po rzuceniu, czy _wiedziała_ ile oczek wypadnie.
>> Rzucisz kostką, to kostka zrobi co powinna i wypadnie ileś tam oczek.
>> A że spodziewałeś się innego wyniku... to nie znaczy, że wynik był zły,
>> czy głupi, czy nieprawdziwy, czy bezwartościowy, czy może akurat wypadło
>> tyle ile się spodziewałeś.
>
> No ale pomijając, ze kostka jest "głupia" i nie wie, to przeciez moze
> odpowiedziec.
No i odpowie: poturla się i jedna z powierzchni będzie u góry. A jak
będzie kiepsko wyważona, to częściej będzie wypadać jakiś wynik, a
rzadziej inny. Nie istnieją idealne kostki.
Jak z tego ma wynikać, że kostka wie co wypadnie, albo co wypadło?
> Ja będę rzucał kostką, i ja będę odpowiadal - tak może być?
Nie rozumiem pytania.
Będziesz sam siebie pytał i sam sobie odpowiesz?
Boty AI nie odpowiadają na pytania.
One generują treści na podstawie wyuczonego modelu. Wpuszczasz tekst na
wejście, dostajesz jakiś tekst na wyjściu.
To, czy ten tekst jest wartościowy dla ciebie oceniasz ty (tak jak wynik
rzutu kostką).
Rozumienie przez nie kontekstu zapytania jest pozorne, to czysta
matematyka+ręczna klasyfikacja przez armię taniej siły roboczej
wrzucającej do niej treści podczas uczenia.
Np. wrzucasz mu zdjęcie kotka i zaznaczasz "ptaszek" to jest kotek.
To jest piesek, to jest myszka itd.
To jest kotek leżący, a to jest kotek stojący...
W dużym uproszczeniu, bo z tekstami jest podobnie, dlatego ma się
wrażenie, że "rozumie" kontekst - jak piszesz z nim o zamkach i
rycerzach, to nie będzie odpowiadał tekstami o zamkach do zamykania
drzwi - z tego nijak nie wynika, że wie co to jest zamek.
Z drugiej strony, jak będziesz "rozmawiał" z botem eksperckim od zamków
od drzwi, to nijak sam z siebie nie wygeneruje tekstu z rycerzami.
>> Więc jak najbardziej zrobił to co powinien, czyli wypluł jakąś informację.
>> Ogarnął to, do czego miał dostęp i w/g modelu, który został mu narzucony
>> ("wyuczony"), przetworzył i wypluł wynik.
>> Podał zlepek słów/fraz/zdań pozlepianych w/g jakichś tam zasad
>> prawdopodobieństwa z kombinacją wynikającą ze statystyki i paru innych
>> rzeczy z zasobu, którym dysponuje.
>> A nie najbardziej prawidłowy.
>> Zasób ma duży, model pieruńsko rozbudowany i skomplikowany, więc dlatego
>> czasem ma się wrażenie, że dostaje się coś wartościowego, a czasem, że
>> to głupoty.
>
> Model ma pierunsko rozbudowany.
> Tylko nie wiem, czemu "model" a nie "baza wiedzy.
Bo bazą wiedzy go karmisz podczas nauki. W wyniku tej nauki dostajesz
model (model sieci neuronowej - w dużym uproszczeniu).
Przykład:
Masz bazę wiedzy, 100000 zdjęć różnych kotków i 100000 zdjęć różnych
piesków.
Twoim celem jest zbudowanie bota, który po zapodaniu mu przez ciebie
zdjęcia (kotka, albo psa) odpowie, czy to był kotek, czy pies.
Wrzucasz mu zdjęcie kotka - zaznaczasz kotek, wrzucasz mu zdjęcie psa -
zaznaczasz pies itd. 200000 razy. Uczysz go.
W ten sposób tworzysz model AI.
I ten model już nie potrzebuje tych 200000 zdjęć kotków i psów żeby
rozpoznać, czy na zdjęciu (spoza puli uczącej) jest kotek, czy pies.
Teraz możesz komuś przekazać taki model i on będzie prawidłowo
rozpoznawał kotki i pieski, pomimo tego, że nie przekazałeś tych 200000
zdjęć kotków i piesków, czyli bazy wiedzy.
Podobnie działają np. programy do odczytywania pisma ręcznego. Przecież
to nie jest tak, że ściągasz taki program razem z pierdyliardem próbek
odręcznego pisma i on podczas swojego działania za każdym razem
przeszukuje swoją "bazę wiedzy". Ta baza wiedzy była potrzebna tylko do
nauki.
Dlatego zawsze jest mowa o poziomie komplikacji _modelu_, a nie bazie
wiedzy. Baza wiedzy, to tylko "makulatura". Nie ma nic skomplikowanego w
zdjęciu kotka.
Tą samą makulaturą można "nakarmić" różne modele z różnymi rezultatami.
> Zadaje pytanie
> "jak najlepiej sprawdzic w Pythonie czy zmienna zawiera liczbę
> całkowitą?"
>
> Dostaję kilka dobrych odpowiedzi, bo pytanie okazuje się nie całkiem
> jasne, a kontekst szeroki.
>
> wiec precyzuję
> "jak najlepiej sprawdzic w Pythonie czy zmienna typu float zawiera
> liczbę całkowitą ?"
>
> Dostaję 3 dobre odpowiedzi.
>
> "która metoda jest najlepsza?"
>
> I znów odpisuje z sensem, i chyba dobrze.
No i?
Gdzie tu przejaw inteligencji?
>> To tylko subiektywne wrażenie odbiorcy (tak jak z kostką do gry), a nie
>> intencjonalne wypisywanie przez "sztuczną inteligencję" głupot i/lub
>> wartościowych rzeczy. Tak jak kostka do gry nie losuje złośliwie ilości
>> oczek, których akurat nie obstawiłeś.
>>
>> I to również tak, jakby mieć pretensje do "sztucznej inteligencji",
>> która została zrobiona do generowania kreskówkowych obrazków, że nie
>> wygenerowała fotorealistycznego zdjęcia pomimo, że została "poproszona"
>> o fotorealistyczne zdjęcie.
>> Od narzędzia do generowania kreskówkowych obrazków dostajesz w wyniku
>> kreskówkowy obrazek i narzekasz, że słabo i do fotorealistycznych zdjęć
>> to ta sztuczna inteligencja nie dojrzała...
>
> To maszyny Trurla miały więcej asertywności :-)
>
>> Przerażający jest ten brak zrozumienia w społeczeństwie czym jest i jak
>> działa ta cała "sztuczna inteligencja".
>
> Ale wysyp tych różnych SI jest imponujący ...
Imponujące jest łączenie tych technologii, a nie sam wysyp.
Np.
https://www.komputerswiat.pl/aktualnosci/nauka-i-tec
hnika/sztuczna-inteligencja-rozwiazala-problem-matem
atyczny-ale-tworcy-nie-wiedza-dlaczego/vkrbjbp
Powrotu do zdrowia życzę.
Piotr
-
42. Data: 2024-02-27 03:52:33
Temat: Re: Nadchodzą nareszcie czasy kiedy ZJEBY prawnicze zastąpi sztuczna inteligencja
Od: Marcin Debowski <a...@I...zoho.com>
On 2024-02-26, Robert Wańkowski <r...@w...pl> wrote:
> W dniu 26.02.2024 o 10:31, J.F pisze:
>> On Sun, 25 Feb 2024 22:19:51 +0100, _Master_ wrote:
>>> I to BĘDZIE DOBRE ;-)
>>
>> No chyba, ze SI ciebie skaże, i nie będzie dyskusji.
>>
>> Albo przegrasz proces o pieniądze, które ci się należą.
>>
>> Ale nie martw sie - banda prawników jeszcze długo nie pozwoli :-)
>
> Podobnie z pilotami. Lądują ręcznie choć statystycznie samolot zrobi to
> lepiej/bezpieczniej.
A potem coś się dupnie co wykracza poza rutynę, którą AP ogarnia i mamy
gotową katastrofę. Podejrzewam, że gdyby piloci rutynowo
lądowali/startowali na AP to katastrof byłoby o jakiś rząd wielkości
wiecej niz obecnie.
Juz nie pamiętam, która to była konkretnie katastrofa, chyba na Taiwanie
(TransAsia 235), gdzie m.in. wnioski były własnie takie, ze nie mieli
praktycznie doświadczenia w startach i lądowaniu, co się walnie
przyczyniło do nieogarnięcia chaosu, który sami zresztą spowodowali.
--
Marcin
-
43. Data: 2024-02-27 03:56:39
Temat: Re: Nadchodzą nareszcie czasy kiedy ZJEBY prawnicze zastąpi sztuczna inteligencja
Od: Marcin Debowski <a...@I...zoho.com>
On 2024-02-26, J.F <j...@p...onet.pl> wrote:
> Moze nie czytałem.
> Model czy nie - duzo inteligencji potrzeba, aby zrozumiec pytanie i z
> sensem odpowiedziec.
Nic nie trzeba. To w końcu "tylko" pewien algorytm pracy na danych.
Tyle, że danych duzo.
--
Marcin
-
44. Data: 2024-02-27 06:23:16
Temat: Re: Nadchodzą nareszcie czasy kiedy ZJEBY prawnicze zastąpi sztuczna inteligencja
Od: Shrek <...@w...pl>
W dniu 27.02.2024 o 03:52, Marcin Debowski pisze:
> Juz nie pamiętam, która to była konkretnie katastrofa, chyba na Taiwanie
> (TransAsia 235), gdzie m.in. wnioski były własnie takie, ze nie mieli
> praktycznie doświadczenia w startach i lądowaniu, co się walnie
> przyczyniło do nieogarnięcia chaosu, który sami zresztą spowodowali.
W dubaju 4 doświadczonch pilotów niemal nie poderwało maszyny przed
końcem pasa... bo im flightdirectory nie kazały. W końcu któryś szarpnął
sterami bo pas się kończył... ale dalej się nie wznosili bo "komputer
nie kazał" i zrobili rundkę 777 na wysokości dachów nad dzielnicą z
prędkością 400+. Childern of magenta;)
--
Shrek
Czy wiesz, że "***** ***" czytane od tyłu daje "??? ?????"?
PS - i konfederację!
-
45. Data: 2024-02-29 01:53:31
Temat: Re: Nadchodzą nareszcie czasy kiedy ZJEBY prawnicze zastąpi sztuczna inteligencja
Od: Marcin Debowski <a...@I...zoho.com>
On 2024-02-27, Shrek <...@w...pl> wrote:
> W dniu 27.02.2024 o 03:52, Marcin Debowski pisze:
>
>> Juz nie pamiętam, która to była konkretnie katastrofa, chyba na Taiwanie
>> (TransAsia 235), gdzie m.in. wnioski były własnie takie, ze nie mieli
>> praktycznie doświadczenia w startach i lądowaniu, co się walnie
>> przyczyniło do nieogarnięcia chaosu, który sami zresztą spowodowali.
>
> W dubaju 4 doświadczonch pilotów niemal nie poderwało maszyny przed
> końcem pasa... bo im flightdirectory nie kazały. W końcu któryś szarpnął
> sterami bo pas się kończył... ale dalej się nie wznosili bo "komputer
> nie kazał" i zrobili rundkę 777 na wysokości dachów nad dzielnicą z
> prędkością 400+. Childern of magenta;)
A co ich skłoniło do 400+ bo to chyba dość duzo jak na tuż po starcie?
--
Marcin
-
46. Data: 2024-02-29 06:39:49
Temat: Re: Nadchodzą nareszcie czasy kiedy ZJEBY prawnicze zastąpi sztuczna inteligencja
Od: Shrek <...@w...pl>
W dniu 29.02.2024 o 01:53, Marcin Debowski pisze:
> A co ich skłoniło do 400+ bo to chyba dość duzo jak na tuż po starcie?
Nie wiem - pewnie byli na TOGA a się nie wznosilil to szybko nabierali
prędkości. "samo się zrobiło".
--
Shrek
Czy wiesz, że "***** ***" czytane od tyłu daje "??? ?????"?
PS - i konfederację!
-
47. Data: 2024-02-29 10:31:00
Temat: Re: Nadchodzą nareszcie czasy kiedy ZJEBY prawnicze zastąpi sztuczna inteligencja
Od: "J.F" <j...@p...onet.pl>
On Tue, 27 Feb 2024 06:23:16 +0100, Shrek wrote:
> W dniu 27.02.2024 o 03:52, Marcin Debowski pisze:
>> Juz nie pamiętam, która to była konkretnie katastrofa, chyba na Taiwanie
>> (TransAsia 235), gdzie m.in. wnioski były własnie takie, ze nie mieli
>> praktycznie doświadczenia w startach i lądowaniu, co się walnie
>> przyczyniło do nieogarnięcia chaosu, który sami zresztą spowodowali.
>
> W dubaju 4 doświadczonch pilotów niemal nie poderwało maszyny przed
> końcem pasa... bo im flightdirectory nie kazały. W końcu któryś szarpnął
> sterami bo pas się kończył... ale dalej się nie wznosili bo "komputer
> nie kazał" i zrobili rundkę 777 na wysokości dachów nad dzielnicą z
> prędkością 400+. Childern of magenta;)
Po to jest ten FD, żeby piloci mniej błedów popelniali.
No ale jak widać - ostatnie słowo nalezy do pilota. Na razie :-)
A w zasadzie to juz nie, bo Airbus potrafi "naprawic błędy", a i
Benek okazuje sie silniejszy :-)
J.
-
48. Data: 2024-02-29 10:34:32
Temat: Re: Nadchodzą nareszcie czasy kiedy ZJEBY prawnicze zastąpi sztuczna inteligencja
Od: "J.F" <j...@p...onet.pl>
On Mon, 26 Feb 2024 20:55:35 +0100, Shrek wrote:
> W dniu 26.02.2024 o 20:38, J.F pisze:
>> Ale od czasu do czasu AP budzi pilotów, bo stwierdza, ze nie jest w
>> stanie dalej pilotować.
>
> _Wydaje_ mi się, że akurat na obcięcie silnika to autopilot powinien
> szybciej i lepiej zareagować niż pilot białkowy - co nie zmienia postaci
> rzeczy że białkowego należy obudzić i zapytać co w związku z tym dalej.
Trudno mi powiedziec jak dokładnie to zrobili, bo w zasadzie masz
rację - w sytuacji krytycznej nalezy budzic pilota ... ale ciągle AP
powinien pilotowac samolot "w dobrej wierze", minimalizując
szkodliwosć.
Przynajmniej dopóki pilot za drążek nie chwyci.
I pewnie jakos tak to jest zrobione.
J.
-
49. Data: 2024-02-29 10:40:04
Temat: Re: Nadchodzą nareszcie czasy kiedy ZJEBY prawnicze zastąpi sztuczna inteligencja
Od: "J.F" <j...@p...onet.pl>
On Tue, 27 Feb 2024 02:52:33 GMT, Marcin Debowski wrote:
> On 2024-02-26, Robert Wańkowski <r...@w...pl> wrote:
>> W dniu 26.02.2024 o 10:31, J.F pisze:
>>> On Sun, 25 Feb 2024 22:19:51 +0100, _Master_ wrote:
>>>> I to BĘDZIE DOBRE ;-)
>>>
>>> No chyba, ze SI ciebie skaże, i nie będzie dyskusji.
>>>
>>> Albo przegrasz proces o pieniądze, które ci się należą.
>>>
>>> Ale nie martw sie - banda prawników jeszcze długo nie pozwoli :-)
>>
>> Podobnie z pilotami. Lądują ręcznie choć statystycznie samolot zrobi to
>> lepiej/bezpieczniej.
>
> A potem coś się dupnie co wykracza poza rutynę, którą AP ogarnia i mamy
> gotową katastrofę. Podejrzewam, że gdyby piloci rutynowo
> lądowali/startowali na AP to katastrof byłoby o jakiś rząd wielkości
> wiecej niz obecnie.
>
> Juz nie pamiętam, która to była konkretnie katastrofa, chyba na Taiwanie
> (TransAsia 235), gdzie m.in. wnioski były własnie takie, ze nie mieli
> praktycznie doświadczenia w startach i lądowaniu, co się walnie
> przyczyniło do nieogarnięcia chaosu, który sami zresztą spowodowali.
No i w efekcie cholera wie co lepsze.
A w dodatku sporo operacji jest obecnie co najmniej wspomaganych przez
rózne automaty ...
Dodaj jeszcze rózne wersje i podwersje, kokpit niby ten sam, a
pilotuje się nieco róźnie. Pilot np miesiąc latał na 737 krótkim,
a dzis go posadzili do długiego ...
J.
-
50. Data: 2024-03-01 04:19:51
Temat: Re: Nadchodzą nareszcie czasy kiedy ZJEBY prawnicze zastąpi sztuczna inteligencja
Od: Marcin Debowski <a...@I...zoho.com>
On 2024-02-29, J.F <j...@p...onet.pl> wrote:
> On Tue, 27 Feb 2024 02:52:33 GMT, Marcin Debowski wrote:
>> On 2024-02-26, Robert Wańkowski <r...@w...pl> wrote:
>>> W dniu 26.02.2024 o 10:31, J.F pisze:
>>>> On Sun, 25 Feb 2024 22:19:51 +0100, _Master_ wrote:
>>>>> I to BĘDZIE DOBRE ;-)
>>>>
>>>> No chyba, ze SI ciebie skaże, i nie będzie dyskusji.
>>>>
>>>> Albo przegrasz proces o pieniądze, które ci się należą.
>>>>
>>>> Ale nie martw sie - banda prawników jeszcze długo nie pozwoli :-)
>>>
>>> Podobnie z pilotami. Lądują ręcznie choć statystycznie samolot zrobi to
>>> lepiej/bezpieczniej.
>>
>> A potem coś się dupnie co wykracza poza rutynę, którą AP ogarnia i mamy
>> gotową katastrofę. Podejrzewam, że gdyby piloci rutynowo
>> lądowali/startowali na AP to katastrof byłoby o jakiś rząd wielkości
>> wiecej niz obecnie.
>>
>> Juz nie pamiętam, która to była konkretnie katastrofa, chyba na Taiwanie
>> (TransAsia 235), gdzie m.in. wnioski były własnie takie, ze nie mieli
>> praktycznie doświadczenia w startach i lądowaniu, co się walnie
>> przyczyniło do nieogarnięcia chaosu, który sami zresztą spowodowali.
>
> No i w efekcie cholera wie co lepsze.
>
> A w dodatku sporo operacji jest obecnie co najmniej wspomaganych przez
> rózne automaty ...
>
> Dodaj jeszcze rózne wersje i podwersje, kokpit niby ten sam, a
> pilotuje się nieco róźnie. Pilot np miesiąc latał na 737 krótkim,
> a dzis go posadzili do długiego ...
Ale tak chyba nie powinno być? Tak jak rozumiem, to musi być jakiś
dłuższy trening. Inna rzecz, że te różnice potrafią być faktycznie
fundamentalne. Jedna z najbardziej dla mnie szokujących prawie katastrof
wynikła z tego, że SAAB jako chyba jeden z nielicznych, w którymś ze
swoich modeli nie odłączał AP po wykryciu nacisku na wolant. I tak sobie
walczyli z AP nurkując w kierunku ziemi. Bodajże 7 czy 11s przed
uderzeniem nastapił błąd w oprogramowaniu, co akurat wyłączało AP. I
tylko dlatego sie nierozwalili.
--
Marcin