Editeur de fichiers textes énormes ! - Divers - Programmation
Marsh Posté le 06-07-2005 à 16:09:50
le bloc notes, je crois
Marsh Posté le 06-07-2005 à 16:19:15
plainsofpain a écrit : le bloc notes, je crois |
Le bloc note est quasi non fonctonnel au dessus de 5 ou 10 Mo de texte
Marsh Posté le 06-07-2005 à 16:21:01
vi est très long à ouvrir de gros fichiers, je me demande s'il n'y a pas une limite en plus.
Bref, pour visualiser d'énormes fichiers, je ne connais pas grand chose. Peut-être un éditeur hexa, ça a l'habitude de voir de gros machins ça, non ?
Marsh Posté le 06-07-2005 à 16:23:58
UltraEdit ?
Marsh Posté le 06-07-2005 à 16:24:08
SciTE ne tient pas pour des fichiers pareils, voir ce que donnent JEdit et UltraEdit
Et ptet Visual Studio aussi, mais je doute que ça fonctionne bien.
Eclipse et Netbeans pas la peine de tenter par contre
Marsh Posté le 06-07-2005 à 16:25:01
Sinon reste la solution de tronçonner le fichier en plein de petites entités.
Marsh Posté le 06-07-2005 à 16:30:21
sircam a écrit : UltraEdit ? |
Je l'ai utilisé pour des fichiers 100-300Mb si mes souvenirs sont bons. Ca pourrait bien passer au-delà.
Marsh Posté le 06-07-2005 à 16:36:47
Elmoricq a écrit : Sinon reste la solution de tronçonner le fichier en plein de petites entités. |
Certes, mais il faut justement les ouvrir pour pouvoir les tronçonner... On en revient à la question de départ...
Marsh Posté le 06-07-2005 à 16:38:38
DrakkoFR a écrit : Certes, mais il faut justement les ouvrir pour pouvoir les tronçonner... On en revient à la question de départ... |
Pas moyen de les découper en ligne de commande?
Marsh Posté le 06-07-2005 à 16:40:49
DrakkoFR a écrit : Certes, mais il faut justement les ouvrir pour pouvoir les tronçonner... On en revient à la question de départ... |
Non justement, car dans ce cas-là tu n'as pas à stocker le fichier entier dans un buffer, tu as juste à le parcourir.
Ca se fait en un quart d'heure avec un script ou un petit programme.
Marsh Posté le 06-07-2005 à 16:47:07
Elmoricq a écrit : Non justement, car dans ce cas-là tu n'as pas à stocker le fichier entier dans un buffer, tu as juste à le parcourir. |
+1
Marsh Posté le 06-07-2005 à 16:48:29
Elmoricq a écrit : Ca se fait en un quart d'heure avec un script ou un petit programme. |
Si tu connais pas le langage
(de script)
Marsh Posté le 06-07-2005 à 16:56:27
masklinn a écrit : Si tu connais pas le langage |
J'incluais les deux, mais c'est sûr que c'est plutôt 2min avec un script que quinze.
Marsh Posté le 06-07-2005 à 16:57:50
Tu nous l'écris en shell/awk en une ligne ?
Marsh Posté le 06-07-2005 à 16:58:25
Elmoricq a écrit : J'incluais les deux, mais c'est sûr que c'est plutôt 2min avec un script que quinze. |
Quinze minutes pour découper un fichier de 500Mo en fichiers de 5Mo?
Faut que je regarde ça, parce que ça me semble bien long quand même
Bon, tenter de me faire un fichier texte de 500 Mo déjà
Marsh Posté le 06-07-2005 à 17:09:32
sircam a écrit : Tu nous l'écris en shell/awk en une ligne ? |
sed/awk ?!
csplit -k mongrosfichier 10000 \{999\} |
Marsh Posté le 06-07-2005 à 17:20:12
Elmoricq a écrit :
|
Chais pas si ça marche mais ça rulez et ça roxx sa mère !
Marsh Posté le 06-07-2005 à 17:28:34
Merf, j'ai jamais utilisé que csplit parce que j'ai jamais eu besoin que de ça, mais je viens de trouver split, qui me semble ici plus adapté en fait...
Par exemple pour des fichiers de 5mo :
split -b 5m mongrosfichier |
Plus simple.
Marsh Posté le 06-07-2005 à 17:31:05
ouais mais il risque de couper au milieu d'une ligne
Marsh Posté le 06-07-2005 à 17:33:47
Ah je savais pas. J'ai jamais utilisé faut dire, et c'est pas marqué dans la manpage
Marsh Posté le 06-07-2005 à 18:14:36
Faut utiliser split -C size, ça fait un découpage par lignes (avec au maximum size octets dans chaque fichier de sortie), -b fait un découpage par octets/charactères
Accessoirement, après test d'un script python de découpage, passer d'1 fichier de 1.10Go (1 190 285 033 o) à 107 fichiers de ~10.5Mo (variable puisque par ligne) prend environ 6mn sur un PIII 800, 768Mo RAM et un disque dur Seagate Barracuda III (40Go, 7200RPM) qui a fini à 55°C ()
vala.
avec un buffer de lecture/écriture de 1Mo
qui n'importe pas vu qu'après vérif ça donne un taux de transfert ~3Mo/s, ce qui correspond à son taux de transfert moyen d'une partition à l'autre de ce disque (ou à la vitesse de création d'une copie)
Marsh Posté le 06-07-2005 à 18:46:56
Elmoricq a écrit : vi est très long à ouvrir de gros fichiers, je me demande s'il n'y a pas une limite en plus. |
je crois pas, j'ouvre des fichiers plusieurs centaines de Mo sans probleme. je teste un Go et je repasse
Marsh Posté le 06-07-2005 à 18:47:31
emacs
Marsh Posté le 06-07-2005 à 18:50:25
dès que t'as un éditeur bien foutu qui fait un mmap (et si ton fichier en lecture seule, ça peut aider), tu peux ouvrir jusqu'à 3G avec Linux
Marsh Posté le 06-07-2005 à 15:59:45
Salut,
Je recherche un éditeur de texte capable de m'ouvrir des fichiers textes brut de plusieurs centaines de Mo...
Word est limité à 32 Mo et conText plante au dela de 200 Mo...
Une idée ?
Merci