In pratica, dato un url qualsiasi, vogliamo estrarre il nome di dominio usando il terminale in Linux.

Possiamo ottenere questo risultato sia con AWK che con SED.

Ovviamente possiamo usare questi esempi anche dentro a degli script.

Supponiamo di avere un file di testo con righe vuote, tipo questo:

$ cat test.txt
roma

lazio
milan

bologna

Vogliamo eliminare le righe vuote, ma non manualmente riga per riga.

Ci sono tantissimi programmi che ci permettono di controllare i processi in Linux, ma molti non sono "essenziali".

Nel senso che danno tantissime informazioni, quando noi magari vogliamo solo sapere al volo quali processi consumano più RAM.

Se vogliamo ottenere questa informazione con un solo comando possiamo usare un misto di:

  • ps
  • awk
  • sort
  • head

Ieri mi sono imbattutto in un file di testo pieno di record duplicati.

Era un file generato da database.

Però avevo bisogno di fare pulizia dei duplicati.

Ho trovato un buon modo usando awk su Linux.

Quini, se abbiamo un file del genere:

prva 1
prova 1
prova 2
hello!
prova 1
prova 21

Chi ha detto che se abbiamo una distro senza interfaccia grafica non possiamo usare Google Translate?

Da oggi è possibile usando Google Translate CLI!

Prima di tutto però abbiamo bisogno di awk e wget, che in genere sono disponibili in tutte le distro (e anche su Mac OS X in verità).

Per essere sicuri di averli possiamo installarli, su Archlinux:

# pacman -Sy awk wget

Bene, a questo punto installiamo il programma, che invece non dovrebbe essere presente nei repo.