• Najnowsze pytania
  • Bez odpowiedzi
  • Zadaj pytanie
  • Kategorie
  • Tagi
  • Zdobyte punkty
  • Ekipa ninja
  • IRC
  • FAQ
  • Regulamin
  • Książki warte uwagi

[bash] Połączenie wyników dwukrotnego wywołanie grep

VPS Starter Arubacloud
0 głosów
91 wizyt
pytanie zadane 8 stycznia 2023 w Inne języki przez Kreks07 Nowicjusz (120 p.)

Cześć,

Potrzebuję połączyć wykonanie komendy "find" i "grep" w jeden bash lub złożone polecenie i nie mam zupełnie pomysłu czy to dobry trop. 

Przeszukują strukturę katalogów w poszukiwaniu elementów posiadających w nazwie "failed" (nazwy plików lub folderów do dalszej obróbki).

─$ ls -al ~ | grep 'failed' 

W drugim kroku dodatkowo sprawdzam, też treści plików, w poszukiwaniu tej frazy:

grep 'failed' ~/*.* 

Oba wyniki obrabiam teraz niezależnie, tak aby wyeliminować powtórzenia (część plików może mieć 'failed' jednocześnie w nazwie i w treści).

Czy jest możliwość połączenia tych komend tak, aby uzyskać listę katalogów lub plików, które mają frazę w nazwie lub występuje ona w treści pliku? Pewnie jednym poleceniem się nie da, prośba o wskazówki jak do tego podejść.

Pozdrawiam i z góry dziękuję

 

 

3 odpowiedzi

0 głosów
odpowiedź 8 stycznia 2023 przez Wiciorny Ekspert (269,120 p.)

Szukasz pewnie  -H opcji w gnu grep.

find . -name '*bills*' -exec grep -H "put" {} \;

Doc: 

    -H, --with-filename
      Print the filename for each match.

ew. popatrz tutaj 
https://stackoverflow.com/questions/52557298/using-find-and-grep-in-linux-command-line-to-search-for-files-with-a-

Przykład: Znajdź wszystkie pliki JavaScript w bieżącym katalogu i wyszukaj słowo „foo”. Najprostszym sposobem na to jest wykonanie polecenia

    grep -iH foo `find . -name "*.js"`

Wyjaśnienie:

  • Zbierz listę wszystkich plików JavaScript w bieżącym katalogu:
    find . -name "*.js"
  • Wstaw tę listę po „foo”: cytaty wsteczne.
  • Przejrzyj listę plików, wyszukaj tekst „foo”:
     grep -i foo <list of files>

W przypadku wielu plików polecenie może stać się zbyt długie i przekroczyć maksymalną dozwoloną liczbę znaków. Co więcej, powyższe nie działa dobrze z katalogami, których nazwy zawierają spacje. Rozwiązanie: niech „znajdź” wywoła „grep” w następujący sposób. 
 

find . -name "*.js" -exec grep -iH foo {} \;

// Polecenie po -exec jest wywoływane dla każdego pliku o nazwie zgodnej ze wzorcem „*.js”, po zastąpieniu nawiasów klamrowych {} nazwą. Znak zmiany znaczenia średnika „\;” 
mówi -exec , gdzie kończy się polecenie.

komentarz 8 stycznia 2023 przez Kreks07 Nowicjusz (120 p.)

Dziękuję! 

Testuję:

find . -name "*failed*" -exec grep -iH failed {} \;

(wcześniej próbowałem podobne kombinację)

I w przypadku istnienia w strukturze katalogów:

- 3 plików z frazą 'failed' w nazwie + jednego katalogu z taką frazą w nazwie + jednego pliku, który nie ma w nazwie 'failed', ale ma tą frazę w treści - wynik dostaję:

./failedlogin.cf:login failed for..

Zwrócony zostaje jeden plik - ten który ma frazę 'failed' zarówno w nazwie, jak i w treści.

Chciałbym, aby wynik uwzględniał zarówno pliki jak i katalogi z frazą w nazwie + pliki, które nie mają tej frazy w nazwie, ale mają ją w treści (teraz robię to odrębnymi poleceniami j.w i sklejam wynik na boku, eliminując powtórzenia)

Cały czas walczę, jeśli niewłaściwie zrozumiałem Twoją podpowiedź to przepraszam :)

0 głosów
odpowiedź 8 stycznia 2023 przez VBService Ekspert (251,250 p.)
edycja 8 stycznia 2023 przez VBService

Może "wrzuć" wyniki działania do jednego pliku

─$ ls -al ~ | grep 'failed' > result.txt

grep 'failed' ~/*.* >> result.txt


lub


─$ ls -al ~ | grep 'failed' | tee result.txt

grep 'failed' ~/*.* | tee -a result.txt

i do dalszej "obróbki" czytaj z pliku.

 

tee command ]

0 głosów
odpowiedź 9 stycznia 2023 przez overcq Pasjonat (21,540 p.)

Raczej potrzebujesz użyć “find”, jeśli chcesz przeszukać razem z podkatalogami, na przykład taka zawartość pliku “grep.sh”:

#!/bin/bash
#*******************************************************************************
function help
{   echo "Usage: $0 path word"
    exit 1
}
#===============================================================================
path="$1"
word="$2"
[ -d "$path" ] || help
[ -n "$word" ] || help
word_="${word//\\/\\\\}"
word_="${word_//\*/\\*}"
word_="${word_//\?/\\?}"
word_="${word_//\[/\\[}"
temp="$( mktemp )"
trap 'rm "$temp"' EXIT
#===============================================================================
find "$path" -name "*$word_*" >"$temp"
grep -Flre "$word" "$path" >>"$temp"
sort -u "$temp"
#*******************************************************************************

Przy czym możesz dodać opcję “-I” (duże ‛i’) do “grep”, by nie przeszukiwał plików binarnych.

Podobne pytania

0 głosów
1 odpowiedź 813 wizyt
pytanie zadane 15 grudnia 2017 w Inne języki przez robRoy Użytkownik (970 p.)
0 głosów
1 odpowiedź 785 wizyt
pytanie zadane 7 czerwca 2018 w PHP przez Q7V Gaduła (4,250 p.)
+2 głosów
1 odpowiedź 114 wizyt
pytanie zadane 21 maja 2020 w Inne języki przez Matibedi335 Początkujący (350 p.)

92,455 zapytań

141,263 odpowiedzi

319,099 komentarzy

61,854 pasjonatów

Motyw:

Akcja Pajacyk

Pajacyk od wielu lat dożywia dzieci. Pomóż klikając w zielony brzuszek na stronie. Dziękujemy! ♡

Oto polecana książka warta uwagi.
Pełną listę książek znajdziesz tutaj.

Akademia Sekuraka

Akademia Sekuraka 2024 zapewnia dostęp do minimum 15 szkoleń online z bezpieczeństwa IT oraz dostęp także do materiałów z edycji Sekurak Academy z roku 2023!

Przy zakupie możecie skorzystać z kodu: pasja-akademia - użyjcie go w koszyku, a uzyskacie rabat -30% na bilety w wersji "Standard"! Więcej informacji na temat akademii 2024 znajdziecie tutaj. Dziękujemy ekipie Sekuraka za taką fajną zniżkę dla wszystkich Pasjonatów!

Akademia Sekuraka

Niedawno wystartował dodruk tej świetnej, rozchwytywanej książki (około 940 stron). Mamy dla Was kod: pasja (wpiszcie go w koszyku), dzięki któremu otrzymujemy 10% zniżki - dziękujemy zaprzyjaźnionej ekipie Sekuraka za taki bonus dla Pasjonatów! Książka to pierwszy tom z serii o ITsec, który łagodnie wprowadzi w świat bezpieczeństwa IT każdą osobę - warto, polecamy!

...