COMPRESSION & CRYPTHOGRAPHIE

COMPRESSION & CRYPTHOGRAPHIE - Algo - Programmation

Marsh Posté le 21-08-2007 à 19:22:03    

Salut tout le monde ,  :bounce:  
j'ai developper un algorithme de compression ainsi de crypthographie mais le probleme est que je n'arrive pas a trouver un parti qui soit interesser par cette algorithme alors ce que je vous demande et de bien vouloir m'aider a trouver quelqu'un en qui je peux discuter en toute liberte de ce sujet  
si vous avez des idee n'hesiter pas a ecrire a mon @dresse mail :
         compression1985@gmail.com                 ou            chooooooseme@yahoo.fr
 
                  merci pour tout    au revoir    
                                                           :hello:

Reply

Marsh Posté le 21-08-2007 à 19:22:03   

Reply

Marsh Posté le 21-08-2007 à 23:14:16    

Bonjour,
 
La graphologie marche même avec une écriture qui n'est pas manuscrite.
Par exemple, ce message :
 
Le titre est écrit entièrement en lettres majuscules. Pourquoi ? Parce que son auteur pense que plus les lettres sont grosses, plus un message est lisible. Erreur ! C'est le contraste qui donne de la lisibilité. D'ailleurs, les romans, les journaux ne sont pas écrits entièrement en lettres majuscules, car sinon le lecteur décrocherait au bout de trente secondes.
 
Dans le corps du message tout est sérré. Cela montre un esprit secret, à la limite avare, ou peut-être stressé, compressé par des parents exigents.
 
Le titre illisible, plus le message compact et ayant une forme étrange vers la fin, contribuent à rendre tout cela mystérieux. L'analyse graphologique révèle donc que l'écriture du sujet est en cohérence avec le contenu de son message.
 
Bonne chance, cher Compression1, et soyez un peu moins compressé.

Reply

Marsh Posté le 21-08-2007 à 23:28:04    

Reply

Marsh Posté le 22-08-2007 à 10:07:41    

billgatesanonym a écrit :

Bonjour,
 
La graphologie marche même avec une écriture qui n'est pas manuscrite.
Par exemple, ce message :
 
Le titre est écrit entièrement en lettres majuscules. Pourquoi ? Parce que son auteur pense que plus les lettres sont grosses, plus un message est lisible. Erreur ! C'est le contraste qui donne de la lisibilité. D'ailleurs, les romans, les journaux ne sont pas écrits entièrement en lettres majuscules, car sinon le lecteur décrocherait au bout de trente secondes.
 
Dans le corps du message tout est sérré. Cela montre un esprit secret, à la limite avare, ou peut-être stressé, compressé par des parents exigents.
 
Le titre illisible, plus le message compact et ayant une forme étrange vers la fin, contribuent à rendre tout cela mystérieux. L'analyse graphologique révèle donc que l'écriture du sujet est en cohérence avec le contenu de son message.
 
Bonne chance, cher Compression1, et soyez un peu moins compressé.


T'as oublie de relever l'absence quasi-totale de ponctuation ... mais c'est sans doute un effet secondaire du au travail sur un algo de compression.

Reply

Marsh Posté le 22-08-2007 à 10:08:10    

compression1 a écrit :

Salut tout le monde ,  :bounce:  
j'ai developper un algorithme de compression ainsi de crypthographie mais le probleme est que je n'arrive pas a trouver un parti qui soit interesser par cette algorithme alors ce que je vous demande et de bien vouloir m'aider a trouver quelqu'un en qui je peux discuter en toute liberte de ce sujet  
si vous avez des idee n'hesiter pas a ecrire a mon @dresse mail :
         compression1985@gmail.com                 ou            chooooooseme@yahoo.fr
 
                  merci pour tout    au revoir    
                                                           :hello:


Il est efficace comment ton algorithme?

Reply

Marsh Posté le 22-08-2007 à 10:11:33    

Ace17 a écrit :


Il est efficace comment ton algorithme?


Avec les langages actuel on doit s'approcher de la compression absolue  :o   :sarcastic:

Reply

Marsh Posté le 22-08-2007 à 10:15:38    

marrant, ça m'a rappelé aussi le même topic :D

Reply

Marsh Posté le 22-08-2007 à 10:44:35    

j'ai tout de suite pensé à ça en effet :D

 

edit : allezu hop, un petit flag, ça promet


Message édité par jagstang le 22-08-2007 à 10:44:51

---------------
What if I were smiling and running into your arms? Would you see then what I see now?  
Reply

Marsh Posté le 22-08-2007 à 10:53:04    

Koyomi a écrit :


Avec les langages actuel on doit s'approcher de la compression absolue  :o   :sarcastic:


 
tu parles du langage SMS? Effectivement, c'est difficile de plus compresser à la volée :lol:

Reply

Marsh Posté le 22-08-2007 à 11:56:44    

Ce qui serait intéressant c'est un algo de compression dont on aurait la certitude que sa sortie est toujours plus petite que son entrée. Parce que bon, des fois zip, ben ton fichier zippé, il est plus gros que le document à l'intérieur :/

Reply

Marsh Posté le 22-08-2007 à 11:56:44   

Reply

Marsh Posté le 22-08-2007 à 12:12:09    

Taz a écrit :

Ce qui serait intéressant c'est un algo de compression dont on aurait la certitude que sa sortie est toujours plus petite que son entrée. Parce que bon, des fois zip, ben ton fichier zippé, il est plus gros que le document à l'intérieur :/


Attends, tu deconnes la j'espere ...

Reply

Marsh Posté le 22-08-2007 à 12:47:03    

Ace17 a écrit :


Attends, tu deconnes la j'espere ...


un test tout bete cree un fichier de quelques octect, meme identique. Regarde ca taille, compresse le en Zip et regarde la taille de sortie tu va etre surpris...

Reply

Marsh Posté le 22-08-2007 à 13:02:13    

Koyomi a écrit :


un test tout bete cree un fichier de quelques octect, meme identique. Regarde ca taille, compresse le en Zip et regarde la taille de sortie tu va etre surpris...


Mais je le sais bien que le zip augmente parfois la taille du fichier!  
Aucun algorithme de compression sans perte ne peut diminuer la taille de n'importe quel fichier ... ca m'etonnait juste que Taz semble ne pas savoir ca.
 
Si tu reduis la taille de n'importe quel fichier, ca veut dire que tu as une bijection entre deux ensembles qui n'ont pas la meme taille ...
 
edit : Masklinn a deja tres bien explique ca dans le topic cite plus haut

Message cité 1 fois
Message édité par Ace17 le 22-08-2007 à 13:05:36
Reply

Marsh Posté le 22-08-2007 à 13:35:09    

Ace17 a écrit :


Mais je le sais bien que le zip augmente parfois la taille du fichier!  
Aucun algorithme de compression sans perte ne peut diminuer la taille de n'importe quel fichier ... ca m'etonnait juste que Taz semble ne pas savoir ca.
 
Si tu reduis la taille de n'importe quel fichier, ca veut dire que tu as une bijection entre deux ensembles qui n'ont pas la meme taille ...
 
edit : Masklinn a deja tres bien explique ca dans le topic cite plus haut


en fait apres analyse du post de Taz  :D  je pense que tout etais du second degrée (comme ce topic) et que je suis trop terre a terre :p

Reply

Marsh Posté le 22-08-2007 à 16:24:42    

Ace17 a écrit :


Attends, tu deconnes la j'espere ...


irony


---------------
Stick a parrot in a Call of Duty lobby, and you're gonna get a racist parrot. — Cody
Reply

Marsh Posté le 22-08-2007 à 17:04:19    

Sisi moi je connais un outils de compression absolue : la touche "suppr" du clavier.
 
Tu effaces tes documents Word, pis après tu demandes à un stagiaire de les réécrire quand t'en a besoin.
Evidement, ça prend pas mal de temps pour la décompression, et parfois tu retombes pas tout à fait sur l'original.
Mais au moins cet algo fait le café :sol:

Message cité 1 fois
Message édité par MagicBuzz le 22-08-2007 à 17:08:36
Reply

Marsh Posté le 22-08-2007 à 19:00:37    

pourqoui dit tu cela je deconne pas

Reply

Marsh Posté le 22-08-2007 à 19:05:14    

si on prend un ensemble de veuleur dont l'existance serai egal (ex: pour a il ya 10 de meme pour tout l'ensemble de 0 a 255)
alors la possibilite de trouver le fichier par un ordre est egal a la taille du fichier lui meme .  
(peut etre moins +l'historique du fichier compresser =fichier original)alors la bijection n'a rien a avoir ici

Reply

Marsh Posté le 22-08-2007 à 19:09:47    

ce message est pour koyomi l'idee de cette algorithme est totalemnt original si tu veut discuter + a ce sujet tu peut m'envoyer un message a ma boite ou on peut discuter

Reply

Marsh Posté le 22-08-2007 à 19:10:51    

je te conseille vivement de lire les écrits d'un certain Claude E. Shannon avant d'aller plus loin dans tes recherches


---------------
What if I were smiling and running into your arms? Would you see then what I see now?  
Reply

Marsh Posté le 22-08-2007 à 19:29:03    

compression1 a écrit :

si on prend un ensemble de veuleur dont l'existance serai egal (ex: pour a il ya 10 de meme pour tout l'ensemble de 0 a 255)
alors la possibilite de trouver le fichier par un ordre est egal a la taille du fichier lui meme .  
(peut etre moins +l'historique du fichier compresser =fichier original)alors la bijection n'a rien a avoir ici


Bon, deja, je te demande de t'exprimer en francais a peu pres correct stp, parce que je n'ai rien compris a ton charabia.
Ensuite, bien sur que la bijection a quelque chose a faire dans cette histoire. Parce qu'un algo de compression sans perte EST une bijection (sinon il ne serait pas "sans perte" ). Quelle garantie as-tu que la taille du fichier compresse + son historique ne va pas depasser la taille du fichier original ?

Reply

Marsh Posté le 22-08-2007 à 19:59:21    

J'ai compris! C'est une experience de psychologie :D

Reply

Marsh Posté le 22-08-2007 à 23:56:27    

premierement en quoi la bijection serai un probleme dit moi pour une compression sans perte hein ?
-as tu etudie les toutes les compression (en commencantpar la compression a blanc , huffman , RLE et ZLW...)
si tu as de si belles idees do you mind shere in it ?please

Reply

Marsh Posté le 23-08-2007 à 00:01:54    

si tu sais quelques choses sur les idees de claude E.shanon
dit moi ?

Reply

Marsh Posté le 23-08-2007 à 00:09:04    

compression1 a écrit :

premierement en quoi la bijection serai un probleme dit moi pour une compression sans perte hein ?
-as tu etudie les toutes les compression (en commencantpar la compression a blanc , huffman , RLE et ZLW...)
si tu as de si belles idees do you mind shere in it ?please


compression1 a écrit :

si tu sais quelques choses sur les idees de claude E.shanon
dit moi ?


J'en ai marre de voir des cons pareils, à chaque fois que je me dis que ma foi en l'humanité ne pourrait être plus basse un nouveau challengeur apparait [:sisicaivrai]


---------------
Stick a parrot in a Call of Duty lobby, and you're gonna get a racist parrot. — Cody
Reply

Marsh Posté le 23-08-2007 à 02:01:20    

Bon, compression1, le plus fort dans le monde en compression, c'est shannon parce qu'il a sorti un théorème (ça veut dire qu'il l'a démontré et que c'est incontestable) qui dit qu'il existe forcément une manière de compresser une information au maximum (sans pertes) pour que sa "taille" soit égale à la quantité d'informations qu'elle contient.
 
La seule manière que tu pourrais avoir pour impressionner qui que ce soit (à part un néophyte) serait de trouver le théorème (et le démontrer par la même occasion) qui détermine la manière de compresser n'importe quelle information pour réduire sa taille au minimum. Je te souhaite bonne chance.


---------------
The Rom's, à votre service
Reply

Marsh Posté le 23-08-2007 à 09:08:35    


 
quand on a affaire à qq comme compression1, on dit plutôt "donner des baffes" :D

Reply

Marsh Posté le 23-08-2007 à 09:25:01    

compression1 a écrit :

premierement en quoi la bijection serai un probleme dit moi pour une compression sans perte hein ?


 
http://i0005.photobucket.com/albums/0005/icanhascheezburger/2007/7/4/16/128280660713281250achallengera.jpg

Reply

Marsh Posté le 23-08-2007 à 10:02:56    

compression1 a écrit :

premierement en quoi la bijection serai un probleme dit moi pour une compression sans perte hein ?
-as tu etudie les toutes les compression (en commencantpar la compression a blanc , huffman , RLE et ZLW...)
si tu as de si belles idees do you mind shere in it ?please


Non, je n'ai pas etudie toutes les compressions, tu en sais sans doute plus que moi la dessus ... mais ca ne change pas la donne. Pas de probleme, je vais donc tenter de t'expliquer mon point de vue - et il ne s'agit pas de "belles idees" mais tout simplement de logique. Ce qui m'a fait reagir, c'est la notion d'algo de compression dont on aurait la certitude que la taille du fichier de sortie soit inferieure a celle du fichier d'entree. Parce que ca veut purement et simplement dire qu'il n'y a pas autant de fichiers de sortie possibles que de fichiers d'entree. Donc parmi tes tous tes fichiers d'entree possibles tu vas en avoir au moins 2 qui donnent le meme fichier de sortie, ce qui est problematique si on veut pouvoir decompresser. Tu n'es pas d'accord?

Reply

Marsh Posté le 23-08-2007 à 16:55:31    

oui je te suis c'est vrai, mais la probabilite est une operationde de possibilite applle(ordre: n!/(n-h)!h!) alors pour un fichier qui contient pour tous ses ensembles de repetion egale donc pour le 0 le nombre de repition de cette lettre =100 et ainsi de suite pout tout jusqu'a 255
alors la possibilite de ce document compresser est telle qu'elle soit egal au document original

Reply

Marsh Posté le 23-08-2007 à 16:59:48    

@__@

Reply

Marsh Posté le 23-08-2007 à 17:00:39    

je suis d'accord que la notion d'algo de compression dont on aurait la certitude que la taille du fichier de sortie soit inferieure a celle du fichier d'entree. Parce que ca veut purement et simplement dire qu'il n'y a pas autant de fichiers de sortie possibles que de fichiers d'entree. Donc parmi tes tous tes fichiers d'entree possibles tu vas en avoir au moins 2 qui donnent le meme fichier de sortie, ce qui est problematique si on veut pouvoir decompresser. mais ce que je propose est une nouvelle methode qui poura meme compresser le document deja compresser par tout les outils de compressions connu ( a l'excepption de quelques documents bien sure ok)comme pour le format MP
3 , zip,JPEG...et autres

Reply

Marsh Posté le 23-08-2007 à 17:00:57    

compression1 a écrit :

oui je te suis c'est vrai, mais la probabilite est une operationde de possibilite applle(ordre: n!/(n-h)!h!) alors pour un fichier qui contient pour tous ses ensembles de repetion egale donc pour le 0 le nombre de repition de cette lettre =100 et ainsi de suite pout tout jusqu'a 255
alors la possibilite de ce document compresser est telle qu'elle soit egal au document original


Impressionnant, tous les mots ont l'air de venir d'un dictionnaire de français (fautes d'orthographe ignorées) mais ce n'est indubitablement pas du français, je découvre des trucs là.


---------------
Stick a parrot in a Call of Duty lobby, and you're gonna get a racist parrot. — Cody
Reply

Marsh Posté le 23-08-2007 à 17:01:38    

compression1 a écrit :

je suis d'accord que la notion d'algo de compression dont on aurait la certitude que la taille du fichier de sortie soit inferieure a celle du fichier d'entree. Parce que ca veut purement et simplement dire qu'il n'y a pas autant de fichiers de sortie possibles que de fichiers d'entree. Donc parmi tes tous tes fichiers d'entree possibles tu vas en avoir au moins 2 qui donnent le meme fichier de sortie, ce qui est problematique si on veut pouvoir decompresser. mais ce que je propose est une nouvelle methode qui poura meme compresser le document deja compresser par tout les outils de compressions connu ( a l'excepption de quelques documents bien sure ok)comme pour le format MP
3 , zip,JPEG...et autres


lol


---------------
Stick a parrot in a Call of Duty lobby, and you're gonna get a racist parrot. — Cody
Reply

Marsh Posté le 23-08-2007 à 17:02:13    

compression1 a écrit :

oui je te suis c'est vrai, mais la probabilite est une operationde de possibilite applle(ordre: n!/(n-h)!h!) alors pour un fichier qui contient pour tous ses ensembles de repetion egale donc pour le 0 le nombre de repition de cette lettre =100 et ainsi de suite pout tout jusqu'a 255
alors la possibilite de ce document compresser est telle qu'elle soit egal au document original


mais [:quoted] bordel !

Reply

Marsh Posté le 23-08-2007 à 17:02:36    

tout ce que je vous demande chers internautes c'est de bien vouloir m'aider a developper cette algorithme. ace17 connais-tu quelqu'un ?

Reply

Marsh Posté le 23-08-2007 à 17:03:50    

Je que l'homme de la situation. Je que dossier bleu et vous sur une centaine de tableaux très clairs. Vous semaine prochaine et sans faute. Je tellement sur vous. Je clair, Luc, ne pas ?

Reply

Marsh Posté le 23-08-2007 à 17:19:58    

Ou Sophie la Douce, elle est généralement volontaire pour ce genre de projet.
 
Ou Harkonnen, si tu veux une interface graphique de qualité.

Reply

Marsh Posté le    

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed