Nos recherches portent sur une grande variété d’applications d’apprentissage automatique et de grands modèles de langage dans les soins contre le cancer. Il s’agit notamment d’améliorer les soins directs aux patients et de relever les défis opérationnels tels que la planification et la documentation. En fin de compte, nous essayons de répondre à la question suivante : comment ces technologies peuvent-elles améliorer les soins de santé pour les patients, les prestataires et les chercheurs ?
Les grands modèles de langage ont déjà commencé à transformer le paysage de la recherche. Des tâches de traitement du langage naturel auparavant prohibitives sont devenues accessibles à de nombreux chercheurs, ce qui a permis de nombreuses nouvelles lignes de recherche impliquant des données non structurées. L’un des principaux défis est l’évolution rapide du paysage des outils et de l’infrastructure des grands modèles de langage.
De nombreux cliniciens et chercheurs peuvent avoir des idées d’applications, mais n’ont pas actuellement les connaissances contextuelles ou techniques nécessaires à la mise en œuvre, ou à la prise en compte réfléchie des compromis entre différentes approches. Pour commencer, installez Git, python et PIP sur l’ordinateur, puis exécutez les commandes dans un terminal pour vérifier l’installation. Exécutez ensuite la commande git clone pour télécharger le référentiel et installer les exigences nécessaires.
Pour créer une base de données vectorielle, modifiez la configuration. py, en remplaçant la valeur de la variable suivante par le chemin d’accès au dossier contenant les documents qui seront utilisés pour augmenter le modèle de langage volumineux. Enregistrez ensuite le fichier mis à jour dans le répertoire articles.
Ensuite, dans un terminal du même répertoire, exécutez le code avec la commande Python 3 build index pour créer et conserver la base de données. Vérifiez si la base de données est maintenant enregistrée dans le dossier de la base de données vectorielle. Pour interroger le LLM augmenté, exécutez l’exécution Python 3 augmented llm.
py dans le terminal. L’utilisateur de test effectue des requêtes pour recevoir des réponses qui sont complétées par les données de l’ensemble de documents. Appuyez ensuite sur la commande plus C pour quitter lorsque vous avez terminé.
Pour créer des QCM, modifiez les questions du fichier. Py, en prenant note du format des exemples. Ajoutez des questions suivant un format similaire et enregistrez le fichier.
Pour modifier la configuration. pi, ajoutez la clé API pour ouvrir l’IA ou étreindre le visage. Si l’objectif est de comparer les modèles de l’un ou l’autre fournisseur.
Enregistrez maintenant le fichier. Ensuite, éditez le comparer llms. py et choisissez l’ensemble de modèles à tester.
Après avoir décommenté les modèles à comparer. Enfin, dans un terminal, exécutez le code avec la commande compare llms et, après l’exécutioni, affichez les réponses du modèle dans le dossier spécifié pour la notation ou une autre révision. Parmi les QCM testés, le modèle d’intégration a obtenu des résultats nettement meilleurs que le modèle de base, tout comme les modèles d’IA ouverts augmentés.