oQi.dZddlmZmZGddeZy)zE InferenceWorker - Thread per esecuzione query LLM senza bloccare UI )QThread pyqtSignalcZeZdZdZeeZeeZeeZdfd Z dZ xZ S)InferenceWorkerzw Worker thread per eseguire inferenze LLM in background. Emette segnali quando completa o incontra errori. cLt|||_||_||_y)z Args: kernel: JarvisKernel instance query: Domanda dell'utente session_id: ID della sessione (per memoria conversazione) N)super__init__kernelquery session_id)selfr r r __class__s H/mnt/ssd/data/python-lab/Jarvis-Cognitive/desktop/ui/inference_worker.pyr zInferenceWorker.__init__s%   $cx |jjd}|s|jjdy|j |j |j }|jj|y#t$r3}dt|}|jj|Yd}~yd}~wwxYw)z5Esegue la query (chiamato automaticamente da start())CognitiveServicez+CognitiveService non disponibile nel KernelNzErrore durante l'inferenza: ) r get_serviceerroremitaskr r finished Exceptionstr)r cognitive_serviceanswere error_msgs rrunzInferenceWorker.runs ' $ 7 78J K $  MN'**4::tGF MM  v & '6s1vh?I JJOOI & & 's8A=AA== B9)B44B9)default) __name__ __module__ __qualname____doc__rrrrprogressr r __classcell__)rs@rrrs/ #H sOE#H %'rrN)r# PyQt6.QtCorerrrrrr(s-*'g*'r