W programie Calibre pojawiły się funkcje AI. Sprawdzam jak działają z polskim modelem Bielik (a część użytkowników już protestuje)

swiatczytnikow.pl 1 dzień temu

AI wyskakuje już choćby z lodówki, więc kwestią czasu było, kiedy pojawi się w programie Calibre, czyli popularnym kombajnie do zarządzania e-bookami.

Parę dni temu ukazała się nowa wersja 8.16.2, która dodaje następujące funkcje. Cytuję w tłumaczeniu Google:

Zezwól na zadawanie AI pytań o dowolną książkę w bibliotece Calibre. Kliknij prawym przyciskiem myszy przycisk „Wyświetl” i wybierz opcję „Omów wybrane książki ze sztuczną inteligencją”.

AI: Zezwól na pytanie AI, jaką książkę przeczytać, klikając prawym przyciskiem myszy na książkę i korzystając z menu „Podobne książki”.

AI: Dodaj nowy backend dla „LM Studio”, który umożliwia lokalne uruchamianie różnych modeli AI.

Co się zmieniło?

Zmiana pierwsza: pytania do AI w Calibre Viewer

Już w wersji 8.11.1 pojawiła się funkcja pozwalająca odpytywać różne modele AI z poziomu aplikacji odczytującej książkę.

Najpierw musimy określić w ustawieniach dostawcę usługi AI z którego korzystamy. Tutaj podałem polskiego Bielika, którego mam zainstalowanego lokalnie w aplikacji Ollama.

Potem mogę zaznaczać tekst i odpytywać.

Poprosiłem o streszczenie fragmentu książki Wspomnienia o Chopinie. Ponieważ domyślne pytanie było zadane po angielsku, na początku dostałem po angielsku, ale poprosiłem po polsku i mam po polsku.

Streszczenie jest dość wierne i poprawne językowo, w końcu korzystam z polskiego modelu, którego można pobrać np. z serwisu Hugging Face.

Zmiana druga: pytania dotyczące książki

To jest ta zmiana, która weszła z wersją 8.16.2.

Klikamy prawym przyciskiem myszki na liście książek i z menu „Wyświetl” wybieramy „Discuss selected book(s) with AI”.

Jak widać, funkcja nie pozostało przetłumaczona na polski.

Tak wygląda okno zapytania. Można też zadawać pytania w formie czata.

Poprosiłem o podsumowanie rozdział po rozdziale nowej książki z PIW, „Bolesław Chrobry”, pierwszego z dwóch tomów „Pocztu władców Polski”.

Wygląda to skromnie, ale przekonująco.

Tyle że… jest to konfabulacja. Bo spis treści książki wygląda w sposób następujący.

Nie ma tu rozdziałów „Młodość”, czy „Polityka zagraniczna”.

Czyli choćby lokalnie zainstalowany model AI nie ustrzeże mnie przed oszukiwaniem. 😉

Nie do końca się na tym znam, ale przepuszczam, iż okno kontekstowe mojego lokalnego Bielika nie pozwala na przetwarzanie całej książki, dlatego Calibre przekazuje tylko fragment i na podstawie np. wstępu coś wymyślił.

Na razie to jest bardzo odległe od testowanego niedawno NotebookLM i przypomina raczej halucynacje, którymi mnie poczęstowało „AI” w czytnikach Onyx Boox, gdy po raz pierwszy tę funkcję sprawdzałem.

Sprawdziłem jeszcze funkcję „Read Next”, która ma sugerować kolejne książki do przeczytania. Tym razem dla „Wspomnień o Chopinie”.

I tu też się nie obyło bez halucynacji. Autorzy są w dużej części prawidłowi, ale nie ma np. takiej książki Kilara jak „Chopin. Muzyka i życie”, a Hanna Wróblewska-Straus napisała wiele książek o Chopinie, ale nie pod takim tytułem.

Pamiętajmy jednak iż wersja Bielika, która działa u mnie na komputerze, to jest model skwantyfikowany, o wielkości zaledwie 7 GB, który ma ułamek możliwości w stosunku do modeli działających online. Nie ma też dostępu do internetu, a jednak znał nazwiska autorów, którzy w książce nie są wymieniani.

Wybór dostawcy i modelu AI

W ustawieniach dostawcy AI mogę wybrać kilku dostawców AI.

Są dostawcy lokalni: OllamaAI oraz LMStudio – to programy, które uruchamiam lokalnie i instaluję w nich modele pobrane z sieci, takie jak Bielik, Gemma 3 czy DeepSeek. Ich możliwości uzależnione są od mocy komputera, głównie pamięci karty graficznej.

Mogę też skorzystać z dostawców zewnętrznych: GoogleAI, GitHubAI oraz OpenRouter. W tym przypadku musiałbym podać klucz API, który dostaję po założeniu konta i zakupie dostępu do konkretnego modelu. Oczywiście te modele będą znacznie „mocniejsze”, niż to co możemy odpalić lokalnie.

Ale tu poważne ostrzeżenie – niektóre z nich mogą korzystać z książki do trenowania danych. Calibre ostrzega np. iż tak jest w przypadku Google, póki nie wykupimy wersji płatnej.

Dlatego tu na razie powstrzymam się od testowania.

Reakcje użytkowników i nowy fork

Wszystko co związane z AI powoduje u niektórych osób reakcję alergiczną, dlatego nie dziwię się, iż ruch twórcy Calibre napotkał pewne kontrowersje.

Wątek z narzekaniami na Mobileread ma już parę stron, mimo tego, iż autor wyjaśnia wprost – nie ma żadnego AI, póki tego nie włączymy i nie skonfigurujemy.

Ale nie wszystkim to wystarczyło, więc parę dni temu jeden z użytkowników stworzył Clbre, czyli forka Calibre pozbawionego funkcji AI. Jest to możliwe, bo program jest dostępny na wolnej licencji. A adekwatnie to… zaczął tworzyć, bo parę osób zajrzało w kod na Githubie i nie ma tam śladów jakichkolwiek zmian.

Dlatego, jak uznali zgodnie użytkownicy portalu Hacker News można to uznać na razie za burzę w szklance wody.

Z kolei inny serwis It’s Foss chwali możliwość odpytywania modeli lokalnych.

Podsumowanie

Co sądzić o dokładaniu AI do popularnego programu do zarządzania książkami? Czy nie jest to przesada, zaś autor Calibre powinien skupić się na podstawowych funkcjach aplikacji?

Dopóki to wszystko jest opcjonalne i znienawidzony skrót nie wyskakuje nam przy otwarciu samego Calibre, wydaje mi się, iż te zmiany można zaakceptować.

Jest już zresztą wtyczka do Calibre: Ask AI, która działa mniej więcej podobnie. Możemy tam podpiąć różnych dostawców, również OpenAI, Claude czy Groka. Nie testowałem jej, ale wydaje się bardzo rozbudowana, choć nie obsługuje na razie języka polskiego.

Pytanie więc, czy sama wtyczka by nie wystarczyła? Czy potrzeba było wkładać tę funkcję do głównego programu? Wtyczka do tłumaczenia książek wykorzystująca również AI istnieje od dawna, no i nie budzi kontrowersji.

Przypuszczam, iż dodając tę funkcję w samym programie są większe możliwości integracji z innymi jego funkcjami. Jest też większa kontrola społeczności nad tym co się dzieje, jest mniejsze ryzyko wstawienia np. niebezpiecznego kodu.

Myślę, iż potencjalnie najciekawsza jest tu integracja z modelami lokalnymi. Możliwość analizy naszych książek bez wysyłania ich do jakiejkolwiek chmury wiele osób zainteresuje. Bylebyśmy jeszcze dostawali adekwatne odpowiedzi.

A co na ten temat sądzicie?

Note: There is a poll embedded within this post, please visit the site to participate in this post's poll.
Idź do oryginalnego materiału