Teraz, gdy iPhone ma technologię Apple Intelligence, sztuczna inteligencja wkracza do głównego nurtu. ChatGPIT, Google Gemini i Microsoft Copilot promują sztuczną inteligencję w różnych technologiach, zmieniając sposób, w jaki wchodzimy w interakcję z technologią. Nagle ludzie mogą prowadzić znaczące rozmowy z maszynami, co oznacza, że możesz zadawać pytania chatbotowi AI w języku naturalnym, a on zwróci nowe odpowiedzi, tak jak zrobiłby to człowiek.
Ale ten aspekt chatbotów AI to tylko jedna część krajobrazu AI. Jasne, to się dzieje ChatGPT pomaga Ci odrobić pracę domową lub w połowie podróży Atrakcyjne obrazy mechów według kraju pochodzenia Fajnie, ale potencjał generycznej sztucznej inteligencji może całkowicie zmienić kształt gospodarki. to mogłoby być tego warte 4,4 biliona dolarów rocznie dla światowej gospodarkiWedług McKinsey Global Institute właśnie dlatego należy spodziewać się coraz większej liczby informacji o sztucznej inteligencji.
Widać to w szerokiej gamie produktów – na krótkiej liście znalazły się m.in. Gemini Google’a, Copilot Microsoftu, Cloud Anthropix, wyszukiwarka Perplexity AI czy gadżety Humen i Rabbit. W naszym AI Atlas Hub możesz przeczytać aktualności, wyjaśnienia i posty z instrukcjami, a także nasze recenzje i praktyczne oceny tych i innych produktów.
W miarę jak ludzie przyzwyczajają się do świata sztucznej inteligencji, wszędzie pojawiają się nowe terminy. Niezależnie od tego, czy chcesz wyglądać elegancko przy drinku, czy zaimponować podczas rozmowy kwalifikacyjnej, oto kilka ważnych terminów związanych ze sztuczną inteligencją, które powinieneś znać.
Słownik ten jest regularnie aktualizowany.
Sztuczna inteligencja ogólna, czyli AGI: Koncepcja sugerująca bardziej zaawansowaną wersję sztucznej inteligencji niż istniejąca obecnie, która może wykonywać zadania znacznie lepiej niż ludzie, a także uczyć się i rozwijać swoje umiejętności.
Agent: Systemy lub modele pokazujące zdolność agencji do samodzielnego podejmowania działań w celu osiągnięcia celu. W kontekście AI model agenta może wykonywać zadania bez stałego nadzoru, jak np. samochód autonomiczny wysokiego szczebla. W przeciwieństwie do frameworków „agentowych”, które znajdują się w tle, frameworki agentowe znajdują się na pierwszym planie i skupiają się na doświadczeniach użytkownika.
Etyka sztucznej inteligencji: Zasady te mają na celu zapobieganie wyrządzaniu przez sztuczną inteligencję krzywdy ludziom, co można osiągnąć za pomocą takich środków, jak określenie, w jaki sposób systemy sztucznej inteligencji powinny gromadzić dane lub radzić sobie z uprzedzeniami.
Bezpieczeństwo sztucznej inteligencji: Interdyscyplinarna dziedzina zajmująca się długoterminowymi skutkami sztucznej inteligencji oraz tym, jak może ona nagle doprowadzić do powstania superinteligencji, która może stać się wroga człowiekowi.
Algorytm: Szereg instrukcji umożliwiających programowi komputerowemu uczenie się i analizowanie danych w określony sposób, na przykład rozpoznawanie wzorców, a następnie uczenie się na ich podstawie i samodzielne wykonywanie zadań.
Wyrównanie: Wprowadzanie zmian w sztucznej inteligencji, aby lepiej uzyskać pożądany rezultat. Może to oznaczać wszystko, od moderowania treści po utrzymywanie pozytywnych interakcji z ludźmi.
Antropomorfizm: Kiedy ludzie zaczną nadawać ludzkie cechy obiektom innym niż ludzie. W przypadku sztucznej inteligencji może to obejmować przekonanie, że chatbot jest bardziej ludzki i świadomy, niż jest w rzeczywistości, na przykład przekonanie, że jest całkowicie szczęśliwy, smutny, a nawet świadomy.
Sztuczna inteligencja, czyli AI: Wykorzystanie technologii do symulacji ludzkiej inteligencji w programach komputerowych lub robotyce. Dziedzina informatyki, której celem jest tworzenie systemów zdolnych do wykonywania zadań człowieka.
Agent autonomiczny: Model sztucznej inteligencji posiadający możliwości, programowanie i inne narzędzia umożliwiające wykonanie określonego zadania. Na przykład samochód autonomiczny jest agentem autonomicznym, ponieważ ma dane sensoryczne, GPS i algorytmy jazdy, aby samodzielnie poruszać się po drodze. badacze ze Stanfordu Pokazali, że autonomiczni agenci mogą rozwijać własne kultury, tradycje i wspólny język.
Stronniczość: W przypadku dużych modeli językowych błędy wynikające z danych uczących. Może to skutkować błędnym przypisaniem pewnych cech określonym rasom lub grupom w oparciu o stereotypy.
Chatbot: Program komunikujący się z ludźmi za pomocą tekstu symulującego ludzki język.
Czat: Chatbot AI opracowany przez OpenAI, który wykorzystuje technologię modelu dużego języka.
Obliczenia kognitywne: Inne określenie sztucznej inteligencji.
Udoskonalanie danych: Remiksowanie istniejących danych lub dodawanie bardziej zróżnicowanego zestawu danych w celu szkolenia sztucznej inteligencji.
Głębokie uczenie się: Metoda sztucznej inteligencji i poddziedzina uczenia maszynowego, która wykorzystuje wiele parametrów do rozpoznawania złożonych wzorców w obrazach, dźwięku i tekście. Proces ten jest inspirowany działaniem ludzkiego mózgu i wykorzystuje sztuczne sieci neuronowe do generowania wzorców.
Rozpowszechnianie się: Metoda uczenia maszynowego, która pobiera fragment istniejących danych, takich jak zdjęcie, i dodaje losowy szum. Modele dyfuzyjne uczą swoje sieci, jak przeprojektować lub odzyskać zdjęcie.
Swobodne zachowanie: Gdy model sztucznej inteligencji wykazuje nieoczekiwane możliwości.
Uczenie się od końca do końca, czyli E2E: Proces głębokiego uczenia się, podczas którego model otrzymuje polecenie wykonania zadania od początku do końca. Nie jest szkolony, aby wykonywać zadanie sekwencyjnie, raczej uczy się na podstawie danych wejściowych i rozwiązuje je za jednym razem.
względy etyczne: Świadomość etycznych implikacji sztucznej inteligencji oraz kwestii związanych z prywatnością, wykorzystaniem danych, uczciwością, niewłaściwym wykorzystaniem i innymi kwestiami bezpieczeństwa.
przekleństwo: Nazywa się to również szybkim startem lub twardym startem. Koncepcja, że jeśli ktoś stworzy AGI, będzie już za późno na uratowanie ludzkości.
Generacyjne sieci przeciwstawne, czyli GAN: Generatywny model sztucznej inteligencji składający się z dwóch sieci neuronowych generujących nowe dane: generatora i dyskryminatora. Generator tworzy nową treść, a dyskryminator sprawdza, czy jest ona autentyczna, czy nie.
Generatywna sztuczna inteligencja: Technologia tworzenia treści wykorzystująca sztuczną inteligencję do generowania tekstu, wideo, kodu komputerowego lub obrazów. Sztuczna inteligencja, korzystając z dużej ilości danych szkoleniowych, znajduje wzorce, aby wygenerować własne nowe odpowiedzi, które czasami mogą być identyczne z materiałem źródłowym.
Bliźnięta Google: Chatbot AI od Google, który działa podobnie do ChatGPT, ale pobiera informacje z aktualnej sieci, podczas gdy ChatGPT od 2021 r. ogranicza się do danych i nie jest podłączony do Internetu.
Balustrada: Na modele sztucznej inteligencji nakładane są zasady i ograniczenia, aby zapewnić odpowiedzialne przetwarzanie danych i brak tworzenia niepokojących treści.
Halucynacje: Zła odpowiedź AI. Może to obejmować generatywną sztuczną inteligencję generującą odpowiedzi, które są błędne, ale z całą pewnością zostały uznane za prawidłowe. Przyczyny tego nie są do końca znane. Na przykład, pytając chatbota AI: „Kiedy Leonardo da Vinci namalował Monę Lisę?” To może odpowiedzieć błędnymi stwierdzeniami Jest tam napisane: „Leonardo da Vinci namalował Monę Lisę w 1815 roku”, czyli właściwie 300 lat po jej namalowaniu.
Oszacować: Proces używany przez modele AI do generowania tekstu, obrazów i innych treści na podstawie nowych danych wyciągać wnioski Z ich danych treningowych.
Model dużego języka lub LLM: Model sztucznej inteligencji szkolony na dużych ilościach danych tekstowych w celu zrozumienia języka i generowania nowych treści w języku podobnym do ludzkiego.
Uczenie maszynowe, czyli ML: Komponent sztucznej inteligencji, który umożliwia komputerom uczenie się i tworzenie lepiej przewidywanych wyników bez jawnego programowania. Można łączyć z zestawami szkoleniowymi w celu generowania nowych treści.
Microsoft Bing: Wyszukiwarka firmy Microsoft, która może teraz wykorzystywać technologię ChatGPT do dostarczania wyników wyszukiwania wspomaganych sztuczną inteligencją. Pod względem połączenia z internetem jest podobny do Google Gemini.
Multimodalna sztuczna inteligencja: Typ sztucznej inteligencji, który może przetwarzać wiele typów danych wejściowych, w tym tekst, obrazy, wideo i mowę.
przetwarzanie języka naturalnego: Gałąź sztucznej inteligencji wykorzystująca uczenie maszynowe i głębokie uczenie się, aby zapewnić komputerom zdolność rozumienia ludzkiego języka, często przy użyciu algorytmów uczenia się, modeli statystycznych i reguł językowych.
sieć neuronowa: Model obliczeniowy przypominający strukturę ludzkiego mózgu i mający na celu rozpoznawanie wzorców w danych. Składa się z połączonych ze sobą węzłów, czyli neuronów, które potrafią rozpoznawać wzorce i uczyć się z biegiem czasu.
Nadmierne dopasowanie: Błąd w uczeniu maszynowym, który działa zbyt blisko danych szkoleniowych i może być w stanie zidentyfikować tylko konkretne przykłady we wspomnianych danych, ale nie nowe dane.
spinacze do papieru: Zasada maksymalizacji spinacza, wymyślona przez filozofa Nicka Bostroma Uniwersytet Oksfordzki ma hipotetyczny scenariusz, w którym system sztucznej inteligencji utworzy jak najwięcej spinaczy do papieru. Chcąc wyprodukować maksymalną liczbę spinaczy do papieru, system sztucznej inteligencji hipotetycznie zużyłby lub przekształcił wszystkie materiały, aby osiągnąć swój cel. Może to obejmować zniszczenie innych maszyn w celu stworzenia większej liczby spinaczy, maszyn, które mogą być korzystne dla ludzi. Niezamierzoną konsekwencją tego systemu sztucznej inteligencji jest to, że może on zniszczyć ludzkość w dążeniu do stworzenia spinaczy do papieru.
Parametry: Wartości liczbowe, które określają strukturę i zachowanie LLM, umożliwiając mu dokonywanie prognoz.
dezorientacja: Nazwa chatbota i wyszukiwarki opartej na sztucznej inteligencji, której właścicielem jest Perplexity AI. Wykorzystuje duży model językowy, podobnie jak inne chatboty AI, aby odpowiadać na pytania za pomocą nowych odpowiedzi. Połączenie z otwartym Internetem umożliwia także dostarczanie najświeższych informacji i uzyskiwanie wyników z sieci. Dostępna jest również płatna usługa Perplexity Pro, która wykorzystuje inne modele, w tym GPT-4o, Cloud 3 Opus, Mistral Large, LlaMa 3 typu open source i własny Sonar 32k. Użytkownicy profesjonalni mogą dodatkowo przesyłać dokumenty do analizy, tworzyć obrazy i dodawać adnotacje do kodów.
podpowiedź: Wprowadzasz sugestie lub pytania do chatbota AI, aby uzyskać odpowiedź.
Szybka seria: Zdolność sztucznej inteligencji do wykorzystywania informacji z przeszłych interakcji w celu poprawy przyszłych reakcji.
Papuga stochastyczna: Analogia do LLM pokazująca, że oprogramowanie nie ma zbyt dobrego zrozumienia znaczenia języka i otaczającego go świata, niezależnie od tego, jak solidny może wydawać się wynik. To zdanie pokazuje, jak papuga może naśladować ludzkie słowa, nie rozumiejąc ich znaczenia.
Transfer stylu: Możliwość dostosowania stylu jednego obrazu do treści innego pozwala AI zinterpretować cechy wizualne jednego obrazu i wykorzystać je na innym. Na przykład zrobienie autoportretu Rembrandta i odtworzenie go w stylu Picassa.
temperatura: Parametry są ustawione w celu kontrolowania losowości danych wyjściowych modelu językowego. Wyższe temperatury oznaczają, że model podejmuje większe ryzyko.
Generowanie tekstu na obraz: Tworzenie zdjęć na podstawie opisu tekstowego.
Znak: Krótkie fragmenty tekstu pisanego, które modele języka AI przetwarzają w celu sformułowania odpowiedzi na Twoje sygnały. Żeton to cztery angielskie litery, czyli w przybliżeniu trzy czwarte słowa.
dane treningowe: Zbiory danych używane do uczenia się modeli AI, w tym tekst, obrazy, kod lub dane.
Model transformatora: Architektura sieci neuronowej i model głębokiego uczenia się, który uczy się kontekstu, śledząc relacje w danych, takich jak części zdań lub obrazy. Zamiast więc analizować jedno słowo na raz, może przyjrzeć się całemu zdaniu i zrozumieć kontekst.
Test Turinga: Nazwany na cześć słynnego matematyka i informatyka Alana Turinga, testuje zdolność maszyny do zachowywania się jak istota ludzka. Jeśli człowiek nie jest w stanie odróżnić reakcji maszyny od reakcji innego człowieka, maszyna przechodzi.
Uczenie się bez nadzoru: Forma uczenia maszynowego, w której model nie jest wyposażony w oznaczone dane szkoleniowe, a zamiast tego model musi identyfikować wzorce w samych danych.
Słaba sztuczna inteligencja, czyli wąska sztuczna inteligencja: Sztuczna inteligencja, która koncentruje się na konkretnym zadaniu i nie może uczyć się poza zakresem swoich umiejętności. Większość dzisiejszych AI to słabe AI.
Uczenie się od zera: Test, w którym model musi wykonać zadanie bez otrzymania wymaganych danych szkoleniowych. Przykładem może być rozpoznanie lwa, mimo że był szkolony wyłącznie na tygrysach.