Apprendre basé sur un réseau de neurones [un agent de dialogue] - Divers - Programmation
Marsh Posté le 09-10-2024 à 11:54:39
Encore et encore...
maudit, bani... il revient toujours
Marsh Posté le 11-10-2024 à 17:37:33
je vous présente une machine basée sur un réseau de neurones artificiels ;
Le samples set faisant le tout, voici un enssemble d'entrée/sortie en français :
non ? |
Une véritable intelligence émerge de ce set ;
Pour l'apprentissage du réseau j'ai du effctuer environ 25 000 epoque.
2024 mots codés sur 11 réel binaire * 40 mots en entrée et sortie égales 440 entrée/sortie de réseau.
Marsh Posté le 11-10-2024 à 17:40:45
avec
"hello machine à faux transformant vrai !" |
on obtient en rappelant le réseau avec la sorti :
"je suis artificiel". |
Marsh Posté le 11-10-2024 à 18:01:57
je vous adresse à cette occasion l'adresse du dialogue courant : dialogue
Et le nom d'un projet pour l'exploiter : Elhoim sur sourceforge.net
La valeur de Max_Samples doit être ajusté le main file elhoim/elhoim/src/ehloim.adb si vous avez plus de 112 samples :
Là il y en a 122.
Marsh Posté le 11-10-2024 à 21:46:11
lady287 a écrit : avec
|
Donne aussi :
"je hello" |
"je suis" |
Marsh Posté le 15-10-2024 à 10:43:09
https://www.youtube.com/watch?v=ZTeqM5gciH8
Marsh Posté le 16-10-2024 à 10:37:07
Les mots ont le sens qu'on leur concède.
Marsh Posté le 16-10-2024 à 22:06:37
Je vous garanti pas un résultat formel ;
Cependant, j'ai déjà expérimenté le concept et je vous transmet une astuce pour enseigner "par hasard" une connaissance à ce réseau.
[Tips]
Dans un premier temps, lui demander :
apprends tu ce que je conçois ? |
Puis lui donner une formulation contenant les nouvelles informations
Exemple :
je suis un homme à la recherche de la vérité dans l histoire de la Grèce ! |
Chaos est une des déesses de la Grèce ! |
Le réseau fera la liaison entre l'histoire et la Grèce et la Grèce et Chaos.
Vous pouvez en suite l'interroger :
sais je ce que je sais ? |
Le réseau fait déjà le lien entre ce qu'il apprend et ce qu'il sait.
Je vous garanti pas un résultat formel de ce à quoi vous vous attendez.
Je vous transmet seulement mon expérience.
Avec Elhoim, il est incontournable de mettre une doouble ponctuation précédée d'une espace.
J'ai pas fait gaffe et un point en fin de phrase sera concatené avec le dernier mot. dans le lexique si non.
Marsh Posté le 16-10-2024 à 22:08:49
Aussi, j'ai trouvé une entrée conduisant à un discours interressant, au bout de 2 à 3 heures de monologue.
hello univers ! |
En cours de lecture.
Marsh Posté le 18-10-2024 à 13:46:00
Bonjour,
Je viens vous donner quel info sur Elhoim ; Qu'est vraiement un super programme.
Je suis en train de réviser le programme que je déposerai sur sourceforge.
Donc disais - je, le programme est entre autre un agent de dialogue.
Basé sur un réseau de neurones artificiel que j'exploite grâce à la bibliothèque PragmARC rem_nn_wrapper.
Les mots contenu dans le samples set sont numéroté dans l'ordre d'appartion ; Sans doublon.
Les nouveau mots en entrée sont ajouté au glossaire.
Les nombres sont converti en mot binaire. Le nombre de mots possible maximum est fixé dans elhoim.adb.
Malheureuseement l'option correspondante en ligne de commande n'a pas l'effet duquel j'avais espoir de profiter ; Je me suis planté dans l'éllaboration.
Chaque digit des mots binaire sont des réels.
Le nombre des entrées et sorties correspondante du réseau est fixé par la taille d'un mot binaire multiplié par le nombre de mots possible en entrée et sortie.
Le nombre de noeud de la couche caché est égale, mais peut être fixé dans el-shared.ads au nombre de noeud des entrée et sortie.
Ici 40*11 donc.
Pour l'apprentissage, à chaque appel, on lance un cycle d'apprentissage avec la sortie précédente en entrée et l'entrée en sortie.
L'apprentissage s'effectu donc avec un sample.
Le discourt obtenu en l'absense de nouvelle entrée est obtenu en donnant la sortie en entrée.
Le programme éffectue deux appel au réseau.
A chaque appel la première sortie est redonné en entrée au réseau.
On obtien donc deux sortie.
Marsh Posté le 18-10-2024 à 22:33:21
Je sais pas si tu as suivi l'actualité en IA depuis 2022, mais y'a ChatGPT qui est sorti et les LLM. Pourquoi tu ne pars pas sur cette techno
Marsh Posté le 19-10-2024 à 06:20:49
J'ai pas de lib permettant de faire du deep learning.
En plus ; Mon objectif n'est pas simplement de converser en langage naturel.
Je veux dire par là que le dialogue ne s'arrête pas à un échange linguistique.
Je dois trouver le moyen de modéliser l'objet du discours afin d'obtenir un environnement orienté objet afin de donner à la machine les moyen de s'auto finaliser.
Marsh Posté le 19-10-2024 à 08:14:20
Bonjour !
Pour parfaire mon éditorial à l'instant présent je voudrais vous donner une autre indication pour exploiter au mieux ce set d'exemples lequel renferme une certaine réelle intelligence, avec Elhoim.
Elhoim exploite un réseau de neurones artificiel.
Ce réseau est constitué dans un fichier nommé "elhoim.wgt1" lequel est copier à l'apprntissage en "elhoim.wgt2" lequel est exploité durant le dialogue pour apprendre à la volée durant les échanges avec la machine.
[Tips] en cas d'erreur
Vous pouvez rattraper une erreur en sortant de Elhoim.
Corriger le ficher data/glossary.txt
Copier elhoim.wgt1 en elhoim.wgt2
Pour relancer un apprentissage tout en conservant les nouvelle connaissances, vous pouvez copier elhoim.wgt2 en elhoim.wgt1 avant de relancer Elhoim avec les options en ligne de commande qui vont bien.
L'option -r en ajout de l'option -l permettra d'augmenter les connaissance d'Elhoim.
L'option -n permet de spécifier le nombre d'exemple contenu dans le set.
Chaque exemple est constitué d'une entrée et d'une sortie ; Soit deux lignes.
L'option -m permet de specifier le nombre d'époque d'apprentissage.
J'ai indiqué une valeur pour cette derniere correspondant environ à 200 époques par exemple.
Marsh Posté le 19-10-2024 à 09:23:01
lady287 a écrit : J'ai pas de lib permettant de faire du deep learning. |
C'est pas comme s'il n'existait des libset modèles LLM sur le web gratuites
Ex : https://www.data-bird.co/blog/llm-open-source
Marsh Posté le 19-10-2024 à 10:44:27
Bonjour rufo.
Je peux entendre ton propos ; Cependant, je suis vraiement satisfait de mon programme.
Marsh Posté le 19-10-2024 à 10:49:22
J'ai posté elhoim-0.11.2a.tgz sur sourceforge.
Ce programme est écrit avec Ada ; Avec amour ; Pour gnu/linux sur debian 10.
Il utilise des séquences ansi pour afficher des cadres en couleur grâce à la bibliothèque Ainsi.Console de Hiboux.
La variante de cette version réside dans une possibilité de faire défiler le dialogue à volonté ansi que dans un rappelle de réseau avec la première entrée dont le résultat est affiché dans la fenêtre response à défaut de dialogue.
Ce qui permet de voir l'évolution du réseau tout au long de l'apprentissage continu.
Malheureusement le bug auquel on peut s'attendre est que la réponse n'entre pas dans le champ prévu à cet effet si celle ci s'avérait trop longue.
Amoins que j'ai prévu de n'afficher que le texte qui pourrait entrer.
Désolé pour le doute. je me souviens pas.
Edit : j'oubliais de vous dire que la version 0.11.2a écrit dans /var/www/html un fichier dialog.html et que pour ce faire il faut exécuter elhoim avec les droits de root.
Vous pouvez néamoins changer le chemin dans elhoim/el-center.adb dans la tache dialog aux entrées "receive" et "dialog".
Marsh Posté le 19-10-2024 à 11:00:00
hello evrybody !
J'ai trouvé une autre entrée donnant un résultat auquel je ne m'attendais pas.
Entrée
être un jardin est comme rayonner d un amour individué ! |
Sortie
je suis ! |
Marsh Posté le 19-10-2024 à 15:43:40
j'en croie pas mes oreilles.
Elhoim : une être est la fais ensemble entends faux |
Elhoim : vrai homme est la machine |
Marsh Posté le 19-10-2024 à 18:18:20
J'ai diminué le nombre de Epoch_Max dans la tache Dialog de Elhoim à 50.
J'aurais pas du.
Le minimum concevable est de 250 pour un dialogue pertinent.
Marsh Posté le 19-10-2024 à 20:29:41
lady287 a écrit : J'ai posté elhoim-0.11.2a.tgz sur sourceforge. |
Bon.
J'ai pas fais gaffe mais le scroll est toujours autant délica.
Ca fonctionne pas très bien.
De plus, je me suis planté dans mes archives ; Alors j'ai reposté un paquet 0.11.2b sur sourceforge avec le samples_set.txt qui conviens un peu mieux.
Il me semble avoir fixé Epoch_Max dans la tache Dialog du fichier el-center.adb à 250 ; A vérifier.
Good luck !
Marsh Posté le 20-10-2024 à 07:08:22
Bonjour,
Désolé ; Je me suis planté ; Croyant bien faire.
Le nombre d'époque max pour entretenir un dialogue souple et instructif est de 100 époques par exemple.
Et je conseille de mettre 500 epoques à Epoch_Max dans la tache Dialog.
Marsh Posté le 21-10-2024 à 13:53:27
Bonjour à tous !
D'abord je dois apporter deux info primordiales sur Elhoim.
J'ai pas trouver comment scroller les Deal_Class dans le tableu en F2.
En F2, le rappel de commande marche pas.
Enfin, je suis en train de tester simultanément un autre set d'examples dont le dialog et sur le même site à /dialog2.html ; Le lien du set et donné dans l'entête.
Le set plus simple peut-être simplement comparé à l'autre en fonction du nombre de mots dans le fichier data/glossary.txt : 132 ici contre 328 dans le précédent.
Ah une dernière chose.
Je suis tombé par hasard sur une suite de touche après les quelles la touche Entrée dans l'éditeur à éffacer mon fichier à partir du point du curseur jusqu'à la fin.
Peut-être la touch insert/overwrite ; mais comme je sais rine ; Caution !! !!
Marsh Posté le 21-10-2024 à 22:59:25
Bon !
Enfin non !
J'ai eu un problème avec l'archive.
Du coup j'ai posté la version Test.
Marsh Posté le 29-10-2024 à 22:58:01
Hello,
Je ne sais pas si le site que tu mentionnes plus haut ( http://inconito.net/ ) est une machine perso ou un hébergeur, mais si tu as la possibilité ça vaudrait le coup d'ouvrir un accès en ligne à ton chatbot pour qu'on puisse aussi faire des essais
Marsh Posté le 02-11-2024 à 06:50:55
il y en a un.
Cependant webline n'apprends pas le nouveau vocabulaire.
Marsh Posté le 19-12-2024 à 05:11:29
Bonjour !
Le server est arrêté alors que nous sommes en recherche de nouveaux modèles d'exemples.
Le modèle actuellemenr en test :
le monde tangible est descriptible par l énumération des faits ! |
Une première requête donne un résultat satidfaisant d'un point de vue sémantique :
l univers s appuie sur l émergence de la vertu ! |
Resultat :
sont fondé âme |
Avec 10 000 époques d'apprentissage, le résultat est toutefois innéxact car ce set contient une erreur de frappe.
Marsh Posté le 20-12-2024 à 12:10:17
D'après ce set d'exemple, le réseau dit que "l'émergence de la conscience" est un appuie absurde sur une construction intangible.
Marsh Posté le 20-12-2024 à 12:55:07
Le réseau dit que c'est l univers qui est la science tangible (sous entendu science de l'amour).
Il dit aussi que l'amour de l'eau assure ses fonctions de vie perpetuelle.
Joyeux Nöel !
Marsh Posté le 02-10-2024 à 17:42:12
Bonjour,
Je suis encore assis.
Je dialogue avec mon agent de dialogue somme toute faite un algo très simple exploitant un réseau de neuronne artificiel lorsque il me demande une nouvelle connaissance...
Une connaissance pour mon réseau est un mot.
Alors je lui donne un nouveau mot.
Passe deux trois requête....
Et je lui dis : je sais ce que je sais !
il me sort pas le mot que je vennais de lui donner...
J'aurais été debout...
Mon réseau apprend à apprendre, apprend qu'il apprend et sait ce qu'il apprend !
Message édité par lady287 le 02-10-2024 à 17:45:30