• dada44 Merci pour cette info. J'ai bidouillé pas mal de truc en plus de ton paramètre. Ca semble tenir mais j'avais déjà eu ce genre de fausse joie. J'attends donc de voir si c'est stable.

  • Hello,
    Perso je n'arrive pas à faire fonctionner le couple jackett/flaresolver avec Y**. Je reste bloqué systématiquement sur "The cookies provided by FlareSolverr are not valid"...
    Les 2 sont en dernières version (0.17.933 et 1.2.5). Ils sont installés sur le même serveur (jackett en direct et FlareSloverr sous docker). Ai-je raté quelque chose (lorsque je test FlareSloverr seul avec l'URL, ça fonctionne) ?
    Pour info, aucun autre site sous cloudflare ne fonctionne donc je penche vraiment pour un souci de config mais je ne vois vraiment pas ce que j'ai pu louper. Comme adresse pour l'API FlareSolverr, j'ai testé localhost, l'IP et le nom de domaine sans succès.
    J'ai l'impression qu'il considère que ce n'est pas la même machine du coup ca ne marche pas.
    Merci !
    Bonne soirée,
    Nico

    • Bon finalement, j'ai refait un nouvel array pour /home en gardant mon /. Donc quelques trucs à reprendre mais ca devrait aller. Merci pour votre aide en tout cas.

    • Ah OK je n'avais pas compris ça. Je pensais que ce n'était que si on voulait faire le changement à chaud.

      Effectivement mon home est sur /dev/md5 qui n'est pas visible depuis le rescue.

      As-tu une astuce ? Sinon je réinstalle tout, mais ça me soule, j'avais fait exprès de faire du RAID 5 pour éviter ça...

      Merci

      Nicolas

      • Hello, le mdadm --examine /dev/sdb ne renvoye rien... Idem pour sdc et sdd.

        root@rescue:~# mdadm -D /dev/md2
        /dev/md2:
                Version : 0.90
          Creation Time : Mon Feb  3 19:24:49 2020
             Raid Level : raid1
             Array Size : 523200 (511.02 MiB 535.76 MB)
          Used Dev Size : 523200 (511.02 MiB 535.76 MB)
           Raid Devices : 4
          Total Devices : 4
        Preferred Minor : 2
            Persistence : Superblock is persistent
        
            Update Time : Tue Mar 24 21:58:51 2020
                  State : clean
         Active Devices : 4
        Working Devices : 4
         Failed Devices : 0
          Spare Devices : 0
        
                   UUID : 4176b338:d6e60b8e:a4d2adc2:26fd5302 (local to host rescue.ovh.net)
                 Events : 0.97
        
            Number   Major   Minor   RaidDevice State
               0       8       18        0      active sync   /dev/sdb2
               1       8        2        1      active sync   /dev/sda2
               2       8       34        2      active sync   /dev/sdc2
               3       8       50        3      active sync   /dev/sdd2
        root@rescue:~# mdadm -D /dev/md3
        /dev/md3:
                Version : 0.90
          Creation Time : Mon Feb  3 19:24:51 2020
             Raid Level : raid1
             Array Size : 20478912 (19.53 GiB 20.97 GB)
          Used Dev Size : 20478912 (19.53 GiB 20.97 GB)
           Raid Devices : 4
          Total Devices : 4
        Preferred Minor : 3
            Persistence : Superblock is persistent
        
            Update Time : Tue Mar 24 22:32:11 2020
                  State : clean
         Active Devices : 4
        Working Devices : 4
         Failed Devices : 0
          Spare Devices : 0
        
                   UUID : becb9783:59e45752:a4d2adc2:26fd5302 (local to host rescue.ovh.net)
                 Events : 0.4382945
        
            Number   Major   Minor   RaidDevice State
               0       8        3        0      active sync   /dev/sda3
               1       8       19        1      active sync   /dev/sdb3
               2       8       35        2      active sync   /dev/sdc3
               3       8       51        3      active sync   /dev/sdd3

        Merci

        Nicolas

      • SkillFr C'est bien le /dev/sda qui a été changer. J'ai dupliqué les partition de /dev/sdb sur /dev/sda pour pouvoir reconstruire le RAID. Bizarrement, c'est 2 disques étaient sortis du RAID mais qu'and j'ai remis /dev/sdb, il n'y pas eu de reconstruction donc je ne me suis pas inquiété.
        Voici le retour des commande :

        root@rescue:~# mdadm --examine /dev/sda
        /dev/sda:
           MBR Magic : aa55
        Partition[0] :   3907029167 sectors at            1 (type ee)
        root@rescue:~# # mdadm --examine /dev/sdb

        Ce qui m'inquiète c'est plus ça :

        root@rescue:~# mdadm --assemble --scan
        mdadm: /dev/md/5 assembled from 2 drives - not enough to start the array.
        mdadm: No arrays found in config file or automatically

        Les 3 sont marqués sains dans 'cat /proc/mdstat' fait sur le serveur démarré sur disque dur.

        Vraiment bizarre cette affaire.

        Merci pour ton aide.

        Nicolas

        • SkillFr C'était bien le grub. Par contre j'ai dû d'abord monter ma partition de boot sur /mnt/boot puis lancer la commande grub-install --boot-directory=/mnt/boot /dev/sda.

          J'arrive bien à démarré mais par contre, impossible de reconstruire mon dernier RAID (/home) :

          mdadm --assemble /dev/md5 /dev/sdb5 /dev/sdc5 /dev/sdd5 /dev/sda5
          mdadm: no recogniseable superblock on /dev/sda5
          mdadm: /dev/sda5 has no superblock - assembly aborted

          Une idée ?

          Merci
          Nicolas

          • Malakai Oui effectivement bonne idée pour les logs (kernel et syslog) mais ils dates tous du crash, rien après... D'autres logs en têtes ?

            Merci

            • Hello, oui toujours. Pas tenté avec le support au regard de ce que j'ai lu sur le net il ne gère pas ce genre de chose.
              La raid sur / est bien reconstruit

              root@rescue:~# cat /proc/mdstat
              Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty]
              md2 : active raid1 sdb2[0] sdd2[3] sdc2[2] sda2[1]
                    523200 blocks [4/4] [UUUU]
              
              md3 : active raid1 sda3[0] sdd3[3] sdc3[2] sdb3[1]
                    20478912 blocks [4/4] [UUUU]
              
              unused devices: <none>

              J'y accède bien en mode rescue mais pas moyen de démarrer...

              Ticket ouvert au support au cas où.

              Nicolas

            • Hello tout le monde,

              J'espère que vous allez bien en ces temps obscurs 😷

              J'ai besoin de votre aide avec un serveur SOYOUSTART. J'ai 4 HDD monté en raid sur 3 partitions. Raid 1 pour boot et /, et RAID 5 pour /home. Je suis passé en rescue. Diagnostiqué le HDD et demandé le remplacement ce qui vient d'être fait. J'ai reconstruit les RAID des 2 premieres partitions qui apparaissent en mode rescue sans problème. Du coup, je redémarre et HDD et là impossible de ping. Le serveur ne se lance pas. Je repasse en rescue et inspecte mon / en le montant et je ne vois rien d'anormal et il est bien dispo en lecture/écriture.

              Ça vous est déjà arrivé ? Avais une idée de ce qu'il peut bloquer ? J'ai tenté de commenter la ligne fstab /home qui n'est pas encore reconstruit et même commenté dans mdconfig celui-ci le tout sans succès.

              Merci pour votre aide, au plaisir de vous lire.

              Nicolas

            • Oui c'est le tuto que j'ai regardé mais je ne sais pas quoi faire ensuite pour configurer sickrage avec cardigann.

              😃

            • Hello les amis, j'espère que vous profitez bien des fêtes. Moi je profite de ces vacances pour me remettre un peu dans le bain avec mon serveur.

              J'ai voulu installer sickrage avec cardigann mais je n'ai pas trouver comment configurer sickrage ?! Promis, j'ai cherché mais impossible de trouve un tuto clair 🙁

              Si vous pouviez m'aider 🙂

              Merci

            • @lokii c'est ça sauf pour la fin. Tu as beaucoup de liberté avec flexget qu'avec les S(...). Perso j'utilise flexget
            • Installation de Java
              echo "deb http://ppa.launchpad.net/webupd8team/java/ubuntu trusty main" | tee -a /etc/apt/sources.list.d/webupd8team-java.list
              echo "deb-src http://ppa.launchpad.net/webupd8team/java/ubuntu trusty main" | tee -a /etc/apt/sources.list.d/webupd8team-java.list
              apt-key adv --keyserver hkp://keyserver.ubuntu.com:80 --recv-keys EEA14886
              aptitude update
              aptitude install oracle-java8-installer -y
              Installation d'Ubooquity
              aptitude install unzip -y
              mkdir -p /opt/ubooquity
              cd /opt/ubooquity
              wget "http://vaemendis.net/ubooquity/service/download.php" -O ubooquity.zip; unzip ubooquity.zip; rm ubooquity.zip
              Script init.d Ubooquity
              nano /etc/init.d/ubooquity
              #!/bin/sh
              ### BEGIN INIT INFO
              # Provides:          Ubooquity
              # Required-Start:    $local_fs $remote_fs $network
              # Required-Stop:     $local_fs $remote_fs $network
              # Default-Start:     2 3 4 5
              # Default-Stop:      0 1 6
              # Short-Description: Ubooquity
              # Description:       Ubooquity for ebook management
              ### END INIT INFO
               
               
              # Documentation available at
              # http://refspecs.linuxfoundation.org/LSB_3.1.0/LSB-Core-generic/LSB-Core-generic/iniscrptfunc.html
              # Debian provides some extra functions though
              . /lib/lsb/init-functions
               
              export UBOOQUITY_HOME=/opt/ubooquity 
              DAEMON_NAME="Ubooquity"
              DAEMON_USER=root
              DAEMON_PATH="/usr/bin/java"
              DAEMON_OPTS="-jar /opt/ubooquity/Ubooquity.jar -webadmin -headless -port 2022"
              DAEMON_PWD="/opt/ubooquity"
              DAEMON_DESC=$(get_lsb_header_val $0 "Short-Description")
              DAEMON_PID="/var/run/${DAEMON_NAME}.pid"
              DAEMON_NICE=0
              DAEMON_LOG='/var/log/cherrymusic'
               
              [ -r "/etc/default/${DAEMON_NAME}" ] && . "/etc/default/${DAEMON_NAME}"
               
              do_start() {
                local result
               
              	pidofproc -p "${DAEMON_PID}" "${DAEMON_PATH}" > /dev/null
              	if [ $? -eq 0 ]; then
              		log_warning_msg "${DAEMON_NAME} is already started"
              		result=0
              	else
              		log_daemon_msg "Starting ${DAEMON_DESC}" "${DAEMON_NAME}"
              		touch "${DAEMON_LOG}"
              		chown $DAEMON_USER "${DAEMON_LOG}"
              		chmod u+rw "${DAEMON_LOG}"
              		if [ -z "${DAEMON_USER}" ]; then
              			start-stop-daemon --start --quiet --oknodo --background \
              				--nicelevel $DAEMON_NICE \
              				--chdir "${DAEMON_PWD}" \
              				--pidfile "${DAEMON_PID}" --make-pidfile \
              				--exec "${DAEMON_PATH}" -- $DAEMON_OPTS
              			result=$?
              		else
              			start-stop-daemon --start --quiet --oknodo --background \
              				--nicelevel $DAEMON_NICE \
              				--chdir "${DAEMON_PWD}" \
              				--pidfile "${DAEMON_PID}" --make-pidfile \
              				--chuid "${DAEMON_USER}" \
              				--exec "${DAEMON_PATH}" -- $DAEMON_OPTS
              			result=$?
              		fi
              		log_end_msg $result
              	fi
              	return $result
              }
               
              do_stop() {
              	local result
               
              	pidofproc -p "${DAEMON_PID}" "${DAEMON_PATH}" > /dev/null
              	if [ $? -ne 0 ]; then
              		log_warning_msg "${DAEMON_NAME} is not started"
              		result=0
              	else
              		log_daemon_msg "Stopping ${DAEMON_DESC}" "${DAEMON_NAME}"
              		killproc -p "${DAEMON_PID}" "${DAEMON_PATH}"
              		result=$?
              		log_end_msg $result
              		rm "${DAEMON_PID}"
              	fi
              	return $result
              }
               
              do_restart() {
              	local result
              	do_stop
              	result=$?
              	if [ $result = 0 ]; then
              		do_start
              		result=$?
              	fi
              	return $result
              }
               
              do_status() {
              	local result
              	status_of_proc -p "${DAEMON_PID}" "${DAEMON_PATH}" "${DAEMON_NAME}"
              	result=$?
              	return $result
              }
               
              do_usage() {
              	echo $"Usage: $0 {start | stop | restart | status}"
              	exit 1
              }
               
              case "$1" in
              start)   do_start;   exit $? ;;
              stop)    do_stop;    exit $? ;;
              restart) do_restart; exit $? ;;
              status)  do_status;  exit $? ;;
              *)       do_usage;   exit  1 ;;
              esac
              chmod +x /etc/init.d/ubooquity
              update-rc.d ubooquity defaults
              service ubooquity start
              Theme Material Design
              cd /opt/ubooquity/themes
              wget http://file.button-mashers.net/p/material-1.7.0a-theme.zip -O temp.zip; unzip temp.zip; rm temp.zip
              SSL
              service nginx stop
              ./letsencrypt-auto certonly --rsa-key-size 4096
              cd /etc/letsencrypt/live/bd.whatyouwant.com/
              openssl pkcs12 -export -out keystore.p12 -inkey privkey.pem -in fullchain.pem
              keytool -importkeystore -destkeystore MyDSKeyStore.jks -srcstoretype PKCS12 -srckeystore keystore.p12
              service nginx start
              http://bd.whatyouwant.com:2022/admin

              General (Edit)
              Automatic scan period : 1 hour
              Theme : material-1.7.0

              Advanced (Edit)
              KeyStore file path : /etc/letsencrypt/live/bd.whatyouwant.com/MyDSKeyStore.jks
              KeyStore password : yourpassword
              Hide empty folders : True
              Bypass single root folder : True
              nano /etc/nginx/sites-enabled/ubooquity.conf
              server {
                  listen 80;
                  server_name bd.whatyouwant.com;
              
                  location / {
                      rewrite ^ https://$server_name$request_uri? permanent;
                  }
              }
              server {
                      listen 443 ssl;
                      server_name     bd.whatyouwant.com;
                      ssl on;
                      ssl_certificate /etc/letsencrypt/live/bd.whatyouwant.com/fullchain.pem;
                      ssl_certificate_key /etc/letsencrypt/live/bd.whatyouwant.com/privkey.pem;
                      location / {
                              proxy_pass         https://127.0.0.1:2022/;
              
                      }
              }
              
              service nginx reload
            • C'est clair que cette nouvelle option pourrais être bien mais pour l'instant, j'ai vraiment pas de problème. J'ai 2300 torrents qui tourne également sous rutorrent et je viens de test le rapatriement d'un fichier je suis 30mo/s (j'ai la fibre @ home ^^).

              ++ Nico
            • Perso très satisfait par SYS. Bon débit et bon uptime, sans oublier les bons prix ^^

              Pour rasplex, il suffit de cocher dans les options un truc du style "Direct stream", comme sur la webapp. Maintenant, ça marche peut être qu'avec la Pi 2 ?!

              ++ Nico
            • Hello,

              J'apporte ma pierre à l'édifice. Perso je tourne sur E3-SAT-1 à 36€ TTC/mois avec une vingtaine de users plex. Que du 720p mini au niveau source (séries+films). Sur les 20 users, envions une quinzaine de vraiment actifs (au moins une lecture par jour en moyenne). Donc moyenne de 7/8 streams simultanés avec pic à 10/12. Résultat = 0 ralentissement ! Je pense que plex gère très bien la priorité du transcode entre les différents streams. Autre solution : inciter tes users à prendre un raspberry avec rasplex : pas de trancode.

              Ci-dessous, capture stats plexpy :


              (oui j'ai des no-life 😉)

              Hésite pas si t'as d'autres questions.

              ++ Nico
            • Bonjour à tous,

              Après concertation avec le staff, nous avons décidé de mettre en place une cagnotte afin de permettre au site de s'autofinancer. En effet, actuellement j'assume seul cette responsabilité (environ 250€/an) et bien je ne compte pas abandonner le site, je pense qu'il a aujourd'hui la maturité et la communauté idéales pour lui permettre de battre de ses propres ailes et ce sans passer par l'option pub.

              Pour cela, j'ai choisi Morning qui est un site de cobanking qui a l’intérêt de ne pas facturer de frais donc 100% de ce que vous déposez sert au site.

              Si vous souhaitez nous aider, rendez-vous ici : https://morning.com/c/ssVvNb/Mondediefr

              Merci d'avance de la part de toute l'équipe et à bientôt !

              Détails des dépenses :
              Nom de domaine (Gandi) : 14.40€ TTC
              Hébergement : 0€ (Partenariat avec Ikoula, merci à eux !)

              Totale pour l'instant : 14.40€/an

              EDIT : Maintenant que les dépenses sont négligeables concernant l'hébergement avec notre partenariat avec Ikoula, on se servira des dons pour, à l'avenir, améliorer l'identité visuelle de mondedie.fr (un nouveau logo, thème flarum un peu plus pro...etc).