top of page
Image by Uriel SC

Wytwarzanie oprogramowania AI 

Sztuczna inteligencja w Twojej firmie

Image by Uriel SC
Image by Uriel SC

KIM JESTEŚMY

Tworzymy platformę programistyczną AI w chmurze obliczeniowej.

"Wykorzystanie LLM dojrzeje, a niektóre firmy będą (...) preferować kupowanie modeli AI z chmurowych interfejsów API, a inne będą (...) chciały tworzyć własne. Wielu przewidywało, że w miarę rozwoju startupy będą przechodzić od interfejsów API do własnych, mniejszych, bardziej wydajnych modeli. Firmy z dużymi i unikalnymi magazynami danych dostrzegą wyraźne korzyści z trenowania własnych modeli (...). Niedawne ogłoszenie Bloomberga o ich szytym na miarę LLM, który koncentruje się na przetwarzaniu języka finansowego, jest świetnym przykładem."

"Szybcy, ale dalekowzroczni przetrwają (...) Kluczowa będzie umiejętność adaptacji, zmiany kierunku i wykorzystania (...) okazji."

Forbes: the AI 50 2023 

"

"

Image by Uriel SC

FAQ

Dlaczego budujecie platformę programistyczną AI do wdrażania serwisów przetwarzających język naturalny, skoro istnieją już narzędzia NLP jak chatGPT czy Bard?

Chaty NLP mimo licznych zalet często nie pozwalają na szybkie uzyskanie wysoce ustrukturyzowanych informacji z tekstu. Użycie dostępnych narzędzi wymaga zazwyczaj, w celu ekstrakcji szczegółowych informacji, długotrwałego procesu tzw. „promptowania”. To ostatecznie nie musi zapewnić pożądanej jakości. Kolejny problem stanowią kwestie prawne wysłania poufnych informacji, będących własnością klientów danego przedsiębiorstwa. Należy mieć na uwadze, że wiodące firmy w branży AI gromadzą dane użytkowników korzystających z ich chatów. Wysyłanie przez przedsiębiorców  informacji klientów wymaga świadomej i dobrowolnej zgody kontrahenta na gromadzenie przez zewnętrznych dostawców jego danych. Alternatywą dla serwisów zbierających dane, są serwisy bezstanowe tzn. przechowujące dane wyłącznie w obszarze pamięci ulotnej i jedynie w czasie przetwarzania na potrzebę usługi. Ostatnim argumentem jest optymalizacja modeli AI. Dobrą praktyką zawodową jest dobieranie architektury modelu LLM będącą najmniejszą potrzebną (jak to możliwe) do wykonania zadania z oczekiwaną jakością. Pozwala to na optymalizację kosztów uczenia sieci neuronowych, utrzymania serwisów je zawierających, a także minimalizacji czasu uzyskania odpowiedzi z modelu AI. Wytrenowanie modelu wielkości GPT-3 może kosztować miliony PLN. Klient zazwyczaj nie oczekuje drugiego chata NLP, a konkretnego narzędzia do specyficznej analizy bądź generacji tekstu.

W czym Wasze rozwiązania oparte o głębokie sieci neuronowe będą lepsze od algorytmicznych polegających na wyszukiwaniu istotnych informacji na podstawie słów kluczowych?

Głębokie sieci neuronowe, w szczególności o architekturze dużych modeli językowych (LLM) typu Transformers, pozwalają na kontekstowe, oparte o mechanizm uwagi przeszukiwanie tekstu. Zazwyczaj informacje zawarte w tekstach nie podlegają prostemu wyszukiwaniu słów kluczowych np. kg, metr, ℃. Mogą one występować w różnych kontekstach. Sieci Transformers umożliwiają inteligentne wyłuskiwanie informacji, bądź ich klasyfikację, w oparciu o znaczenie sekwencji słów w danych aspektach.

Mówi się, że sieci neuronowe nigdy nie osiągają 100% dokładności. Po co mi takie narzędzie?

To prawda. Niemożliwym jest uzyskanie automatu o 100% dokładności w oparciu o modele AI. Głębokie sieci neuronowe uczone za pomocą metodyki uczenia głębokiego często przewyższają specjalistę danego obszaru, między innymi z uwagi na naturalną tendencję człowieka do popełniania błędów, która wynika z czynników takich jak: monotonia danego zadania, przemęczenie, czy rozproszenie uwagi. Nawet narzędzie posiadające skuteczność mniejszą niż 100% może okazać się bardzo pomocne poprzez wspieranie analizy w ramach danego procesu. Specjalista może ograniczyć się do weryfikacji i poprawy błędów algorytmów sztucznej inteligencji, dzięki czemu znacząco skraca się czas potrzebny do wykonania danego zadania. Specyfiką algorytmów AI jest uczenie się sieci i ciągłe podnoszenie jakości działania narzędzia w wyniku dostarczania nowych danych uczących. Dzięki temu serwisy AI mają potencjał uzyskiwania z czasem jakości charakterystycznej dla wysoce wykwalifikowanych specjalistów w danej branży.

Image by Uriel SC

SKOROWIDZ

Modele sztucznej inteligencji (AI) to programy lub systemy, które są zaprojektowane do wykonywania zleconych zadań z wykorzystaniem algorytmów i reguł opartych na danych. Mogą to być np. systemy klasyfikujące, predykcyjne, generujące, optymalizujące, itp. Modele AI często są szkolone na dużych zbiorach danych, by nauczyć się jak rozpoznawać wzorce i przewidywać odpowiednie wyniki.

Large Language Models (LLM)  to rodzaj modeli AI, które są zaprojektowane do przetwarzania i generowania tekstu w  języku naturalnym. Modele te są budowane przy użyciu technik uczenia maszynowego i są szkolone na ogromnych ilościach danych tekstowych, takich jak książki, artykuły i inne teksty pisane. LLM są zdolne do wykonywania szerokiego zakresu zadań przetwarzania języka naturalnego (NLP), takich jak tłumaczenie języków, analiza sentymentu, streszczenie tekstu, odpowiadanie na pytania i wiele innych. Obecne modele LLM opierają się na architekturach Transformers, które zostały wprowadzone w 2017 roku. Wykorzystują one mechanizm uwagi (attention) do przetwarzania sekwencji danych tekstowych.

 

Wdrażamy następujące modele językowe u klienta:

  • GPT-4 (poprzez API zewnętrznego dostawcy Open AI)

  • Llama 3 (70B)

  • Mixtral (8x22B)

  • Palmyra X V3 (72B)

Uczenie maszynowe (ML) - jest to technologia, która pozwala algorytmom nauczyć się na podstawie doświadczenia i dostarczanych im danych. W analizie prawniczej, ML jest stosowane do tworzenia modeli predykcyjnych, np. w zakresie szacowania ryzyka procesowego czy klasyfikacji dokumentów. W ostatniej dekadzie można zaobserwować szczególne zainteresowanie głębokimi sztucznymi sieciami neuronowymi, zawierającymi wiele warstw neuronów, ich metodyką uczenia jest uczenie głębokie.

bottom of page