Fråga:
Homebrew Security Camera Network
CareFree
2016-07-20 19:25:52 UTC
view on stackexchange narkive permalink

Jag har experimenterat med min pi och kameramodulen avsedd för den. Hittills med en enda kamera har saker varit fantastiska. Jag började med min egen kod i python med 'picamera' gränssnittet. Med tiden insåg jag att andra hade gjort mycket av arbetet för mig.

På senare tid har jag använt ccrisans motioneye-kod, som använder mmal och rörelse i bakgrunden.

Min fråga är denna. Jag planerar att ha 4-6 kameror igång någon gång som lagrar stillbilder var tredje sekund på min nätverksserver (körande fönster).

Mycket av begränsningarna med denna inställning är på hallon-pi-sidan. Att köra en webbserver, rörelse och gränssnitt för att strömma data.

Finns det inte något sätt som streaming kan komma från min mycket kraftfullare Windows-server, medan allt som kamerorna behöver göra är att koda och överföra data. Jag har inte mycket kunskap om hur kameranätverk utformas arkitektoniskt.

tack

EDIT: Jag använder RPI B och RPI B (begränsad ram) med raspbian lite (jessie)

Finns det ett visst projekt som du använder för att strömma flödena? Det låter som om du redan planerar att trycka bilderna hela tiden till servern, så du behöver bara välja en streamingmetod som fungerar från bilderna på servern. Finns det något mer med det här?
Ja exakt. Min server har alla kopior av stillbilderna. Vad jag undrar är om det på något sätt är möjligt för Windows-maskinen att hantera streaming till externa klienter snarare än webbservrarna på varje hallon pi.
Det är tider som detta att jag önskar att vissa Windows-programvaror skulle fungera på Pi ... Kolla in NCH Softwares BroadCam för ett roligt litet sidoprojekt. Det fungerar utmärkt för vad du behöver ... Om du har 5 extra fönsterlådor som ligger runt
Tre svar:
goldilocks
2016-07-20 20:08:02 UTC
view on stackexchange narkive permalink

Finns det inte något sätt att streaming kan komma från min mycket kraftfullare Windows-server

Nej, videoströmmen kommer från hårdvara på pi. Du kan strömma till en annan ruta med större bandbredd om du vill överföra strömmen till flera punkter men det verkar inte vara relevant för ditt scenario.

Jag använder RPI B

Jag antar att UV4L-streamingservern kommer att använda 25-50% av processorn medan den sänder vid 1080p, 30 fps (jag använder mest en Pi 2 med kameran). Jag tror dock inte att det upptar mycket RAM, det kräver bara den bit som avsatts för GPU. Observera att du inte behöver köra en webbserver längs sidan om inte rörelse kräver det, U4VL har ett HTTP-gränssnitt.

Jag hittade ett sätt att göra det på ett sätt. Installera motioneye på en Linux-maskin eller virtuell dator inuti windows och peka alla kameraströmmar dit. Sedan kan du ansluta till motioneye på den maskinen och se alla strömmar.
Om du har hittat ett sätt att göra vad du vill (ungefär) och har några minuter, vänligen lämna ett eget svar. Du borde kunna kryssa för den istället - jag blir inte förolämpad;) - även om systemet kan få dig att vänta 24 timmar eller något.
brandi
2016-07-25 21:13:49 UTC
view on stackexchange narkive permalink

Jag skulle använda UV4L för att strömma varje ljudvideoström från varje kamera till en janus-gateway installerad på din server. Det är allt webbaserat, så varje anpassningsarbete bör reduceras till ett minimum. Ett demo-operativsystem som helt körs på en Rpi (där en enda rpi kan vara värd för en videroom) kan också laddas ner från UV4L-webbplatsen och kräver ingen konfiguration för att kunna användas. Janus erbjuder också ljud- och videoinspelning av strömmarna.

F1Linux
2019-03-15 18:26:30 UTC
view on stackexchange narkive permalink

open-ipcamera är en samling bash-skript som automatiserar konfigurationen av en Raspberry Pi till en rörelsedetekterings- / streaming-lösning som snabbt kan anpassas till dina behov.

Och kodning optimeras av open-ipcamera använder CPU-affinitet för att stänga kärnan 3 för exklusiv användning av Rörelse för att koda tagna bilder. Kärnor 0-2 är för allt annat.

Med lite tweaking kan du skräddarsy open-ipcamera för att släppa bilderna på en NFS-del monterad på en webserver antar jag. open-ipcamera s nuvarande konfiguration är att skriva tagna bilder till ett USB-minne. Ett skript pekar sedan upp bilderna till Dropbox och raderar sina lokala kopior för att förhindra att USB-flashenheten fylls till 100% kapacitet. DETTA är det område med öppen-kamera som du behöver hacka för att uppnå önskat beteende.

Annars, att konfigurera * open-ipcamera är ganska enkelt: klona repo från github till Pi-användarens hem, anslut dina lokala detaljer till (2) variabelfiler och kör installationsskriptet. Behöver inte redigera några konfigurationsfiler på Pi. Det mesta av komplexiteten har abstraherats för att ansluta dina data till variabler, så *** open-ipcamera * har inte en hög kompetensbörda att använda och det är väldokumenterat:

Open-ipcamera Repo Download

open-ipcamera Wiki

open-ipcamera YouTube Channel

HTH-



Denna fråga och svar översattes automatiskt från det engelska språket.Det ursprungliga innehållet finns tillgängligt på stackexchange, vilket vi tackar för cc by-sa 3.0-licensen som det distribueras under.
Loading...