Jump to content
Froxlor Forum

All Activity

This stream auto-updates     

  1. Today
  2. @d00p das ist, sagen wir mal, "historisch bedingt". Bevor auf dem System Froxlor eingesetzt wurde, war es per Hand verwaltet. Noch ohne PHP-FPM sondern mit dem PHP Modul vom Apache etc aber zeitgleich mit Logins die per chroot eingeschränkt waren. Da wurde überall bei den Usern die Gruppe www-data eingesetzt. Das ganze ist dann immer mal wieder hin- und hergezogen zwischen Servern, SysCP und Froxlor-Versionen. Und offenbar hat den Part bei einigen Usern nie einer aufgeräumt. Froxlor (bzw deren Vorgänger SysCP) waren nie schuld daran ;)
  3. flyki

    (Teil-)Migration / Howto?

    Hallo, wollt nur kurz mal dazu schreiben, dass ich es im Herbst dann wie oben geschrieben gemacht hab und es einfahcer ging als gedacht... Etwas Fleißarbeit mit den ganzen Configs, aber es hat alles funktioniert :-D
  4. Yesterday
  5. So, not configured correctly. The useradd actually is in the configurations if the user does not already exist. See https://github.com/Froxlor/Froxlor/blob/master/lib/configfiles/stretch.xml#L4654 No, works very fine. Remember to set "Use mod_proxy / mod_proxy_fcgi" as this is required for debian 9 (use_mod_proxy in panel_settings) Not in panel_settings, but in panel_ipsandports (Create vHost-Container)
  6. Last week
  7. I thought there was none, but I checked again: chown: invalid user: 'froxlorlocal:froxlorlocal' So the user froxlorlocal was missing. I added it now according to the fpm wiki entry, as that step seems to be missing from the guide within froxlor under configuration. Maybe there are more steps missing? I can't follow the wiki entry, as that refers to the old mod_fastcgi. As for the container - I don't remember any setting with 'container' in it, and didn't find the word container in panel_settings either. For an easier analysis find following the sql output for everything with fcgi and fpm in it: froxlor_panel_settings.txt
  8. yes any error messages? Do you even let froxlor create a virtualhost container for froxlor?
  9. Hi d00p, as I ran into the same problem (same errror in apache error log) - how can i fix it? I'm pretty sure I also forgot to activate it for the froxlor vhost. But as the web interface is not reachable anymore - how can i change the configuration? I searched the database (in panel_settings), but was not sure which entries I have to change... some more info: I'm running Debian 9 with Apache 2.4, PHP7 with fpm and MariaDB 10.1 the php-fpm service lists entries for all customer domains but not for the froxlor domain I guess I could copy one of the existing entries in /etc/php/7.0/fpm/pool.d/ but as they have all some specifics that are meant for customer domains, I'm not sure what would be needed there, either. So I guess, if I get the settings right in the DB, I could use the cron-job with --force flag to create it with the correct syntax. Am I right? I already tried it by setting 'enabled_ownvhost' to 1 and then ran the cronjob, but that didn't help. Regards, docho
  10. TheMagican

    Let’s Encrypt - ACME TLS-SNI-01

    Ich hab auch die Mail bekommen. In meinem Fall war es aber so, dass ich bei mir zu Hause noch einen Rechner stehen habe, bei dem ich nicht froxlor nutze und stattdessen certbot per cron anwerfe. Hier war die Config falsch und es wurde noch als Authenticator "apache" benutzt - laut Doku kann dieser nur TLS-SNI-01. Ich habe dann auf "webroot" umgestellt und hoffe jetzt, dass alles weiter läuft Vielleicht prüfst du auch mal, ob du noch irgendwo certbot manuell nutzt - vielleicht noch von früher, als froxlor noch kein letsencrypt konnte oder so?
  11. d00p

    Let’s Encrypt - ACME TLS-SNI-01

    Froxlor nutzt eigentlich die http-01 Challenge
  12. Roman Kobosil

    Let’s Encrypt - ACME TLS-SNI-01

    Guten Tag, ich habe heute von Let’s Encrypt folgende E-Mail erhalten: Muss irgendetwas an der Konfiguration von Froxlor geändert werden? Mit freundlichen Grüßen Roman
  13. Würd mich ja jetzt schon interessieren wie da die 33 reinkommt 😛 uid und gid werden beim anlegen eigentlich auf die Kunden-UID gesetzt, d.h. das kann eigentlich garkeine unterschiedlichen werte haben
  14. Oh man! Auf sowas muss man auch erstmal kommen..... Anscheinend schleppe ich da seit Ewigkeiten einen "BUG" in meiner Froxlor Userdatenbank mit mir rum. Folgendes: kundeftp1:x:10379:33:Froxlor User:/customers/webs/kunde/www/:/bin/false Die Gruppe steht bei allen Usern die nicht erkannt wird auf 33. Das ist die default www-data Gruppe. Wenn ich die Gruppe ändere auf etwas, das nicht www-data ist funktioniert es 1a.
  15. Irgendwie wird es immer spannender... getent passwd löst nicht alles auf. getent shadow hingegen kann es: root@web:/etc# getent shadow kundeftp3 kundeftp3:$ZENSIERT:17912:0:99999:7::: root@web:/etc# getent shadow kundeftp1 kundeftp1:$6ZENSIERT:0:99999:7::: root@web:/etc# getent passwd kundeftp1 root@web:/etc# getent passwd kundeftp3 kundeftp3:x:10379:10379:Froxlor User:/customers/webs/kunde/:/bin/false
  16. Interessant ist noch, dass ein "getent passwd" nicht alle User auflistet die in der /var/lib/extrausers drinstehen sondern nur einige.
  17. Auf einem Debian9 System habe ich das Froxlor auf libnss-extrausers mit Dateien im User eingestellt. Die shadow, passwd und group Dateien in /var/lib/extrausers werden generiert und auch die nsswitch.conf ist wie im Froxlor Backend vorgegeben konfiguriert. Einige User werden auch korrekt mit "id username" aufgelöst. Andere hingegen nicht. root@web:~# id kundeftp1 id: 'kundeftp1': no such user root@web:~# id kundeftp3 uid=10379(kundeftp3) gid=10379(kunde) groups=10379(kunde) wenn man in der /var/lib/extrausers/shadow jetzt aber nach kundeftp1 sucht, dann gibt es diesen Eintrag auch: kundeftp1:$zensiert:17912:0:99999:7::: Außerdem fällt auf, dass alle User mit einem "-" im Namen, also bspw "web-kunde" nicht aufgelöst werden können. Mir fehlt ein wenig der Ansatz, wo der Fehler sein könnte. Da einige User aufgelöst werden und andere eben nicht. Auch ein Neustart vom nscd hilft nicht. Es kommt die aktuelle Froxlor Version 0.9.40.1 zum Einsatz. Das Debian ist ein Debian 9.6 ii libnss-extrausers 0.6-4 amd64 nss module to have an additional passwd, shadow and group file ii nscd 2.24-11+deb9u3 amd64 GNU C Library: Name Service Cache Daemon Ich habe in der nscd.conf den Loglevel mal sehr hoch gesetzt. Dadurch kriege ich ein wenig Infos raus. Im Beispiel von kundeftp1 Thu 17 Jan 2019 04:07:54 PM CET - 4027: GETPWBYNAME (kundeftp1) Thu 17 Jan 2019 04:07:54 PM CET - 4027: Haven't found "kundeftp1" in password cache! Thu 17 Jan 2019 04:07:54 PM CET - 4027: add new entry "kundeftp1" of type GETPWBYNAME for passwd to cache (first) Thu 17 Jan 2019 04:08:04 PM CET - 4027: considering GETPWBYNAME entry "kundeftp1", timeout 1547737694 Thu 17 Jan 2019 04:08:19 PM CET - 4027: considering GETPWBYNAME entry "kundeftp1", timeout 1547737694 Thu 17 Jan 2019 04:08:19 PM CET - 4027: remove GETPWBYNAME entry "kundeftp1" Direkt nach dem Neustart von nscd kommt Thu 17 Jan 2019 04:07:34 PM CET - 4027: monitoring file /etc/passwd for database passwd Thu 17 Jan 2019 04:07:34 PM CET - 4027: monitoring file `/etc/passwd` (1) Thu 17 Jan 2019 04:07:34 PM CET - 4027: monitoring directory `/etc` (2) Thu 17 Jan 2019 04:07:34 PM CET - 4027: monitoring file /etc/group for database group Thu 17 Jan 2019 04:07:34 PM CET - 4027: monitoring file `/etc/group` (3) Thu 17 Jan 2019 04:07:34 PM CET - 4027: monitoring directory `/etc` (2) Thu 17 Jan 2019 04:07:34 PM CET - 4027: monitoring file /etc/hosts for database hosts Thu 17 Jan 2019 04:07:34 PM CET - 4027: monitoring file `/etc/hosts` (4) Thu 17 Jan 2019 04:07:34 PM CET - 4027: monitoring directory `/etc` (2) Thu 17 Jan 2019 04:07:34 PM CET - 4027: monitoring file /etc/resolv.conf for database hosts Thu 17 Jan 2019 04:07:34 PM CET - 4027: monitoring file `/etc/resolv.conf` (5) Thu 17 Jan 2019 04:07:34 PM CET - 4027: monitoring directory `/etc` (2) Thu 17 Jan 2019 04:07:34 PM CET - 4027: monitoring file /etc/services for database services Thu 17 Jan 2019 04:07:34 PM CET - 4027: monitoring file `/etc/services` (6) Thu 17 Jan 2019 04:07:34 PM CET - 4027: monitoring directory `/etc` (2) Thu 17 Jan 2019 04:07:34 PM CET - 4027: monitoring file /etc/netgroup for database netgroup Thu 17 Jan 2019 04:07:34 PM CET - 4027: disabled inotify-based monitoring for file `/etc/netgroup': No such file or directory Thu 17 Jan 2019 04:07:34 PM CET - 4027: stat failed for file `/etc/netgroup'; will try again later: No such file or directory Thu 17 Jan 2019 04:07:36 PM CET - 4027: handle_request: request received (Version = 2) from PID 4054 Thu 17 Jan 2019 04:07:36 PM CET - 4027: GETFDPW Thu 17 Jan 2019 04:07:36 PM CET - 4027: provide access to FD 7, for passwd Thu 17 Jan 2019 04:07:36 PM CET - 4027: handle_request: request received (Version = 2) from PID 4054 Thu 17 Jan 2019 04:07:36 PM CET - 4027: GETPWBYUID (100) Thu 17 Jan 2019 04:07:36 PM CET - 4027: Haven't found "100" in password cache! Thu 17 Jan 2019 04:07:36 PM CET - 4027: add new entry "100" of type GETPWBYUID for passwd to cache (first) Thu 17 Jan 2019 04:07:36 PM CET - 4027: add new entry "systemd-timesync" of type GETPWBYNAME for passwd to cache Thu 17 Jan 2019 04:07:36 PM CET - 4027: handle_request: request received (Version = 2) from PID 4054 Thu 17 Jan 2019 04:07:36 PM CET - 4027: GETPWBYUID (105) Thu 17 Jan 2019 04:07:36 PM CET - 4027: Haven't found "105" in password cache! Thu 17 Jan 2019 04:07:36 PM CET - 4027: add new entry "105" of type GETPWBYUID for passwd to cache (first) Thu 17 Jan 2019 04:07:36 PM CET - 4027: add new entry "messagebus" of type GETPWBYNAME for passwd to cache Thu 17 Jan 2019 04:07:36 PM CET - 4027: handle_request: request received (Version = 2) from PID 4054 Thu 17 Jan 2019 04:07:36 PM CET - 4027: GETPWBYUID (107) Thu 17 Jan 2019 04:07:36 PM CET - 4027: Haven't found "107" in password cache! Thu 17 Jan 2019 04:07:36 PM CET - 4027: add new entry "107" of type GETPWBYUID for passwd to cache (first) Thu 17 Jan 2019 04:07:36 PM CET - 4027: add new entry "proftpd" of type GETPWBYNAME for passwd to cache Thu 17 Jan 2019 04:07:49 PM CET - 4027: pruning passwd cache; time 1547737669 Thu 17 Jan 2019 04:07:49 PM CET - 4027: considering GETPWBYUID entry "0", timeout 1547737702 Hat da jemand einen Rat für mich?
  18. Earlier
  19. Du kannst gerne für die Benutzer Shell aktivieren, aber dann musst du dich auch um die lokale mailzustellung kümmern. Das ist Default bei froxlor nicht vorgesehen. Das das in der dovecot config so steht kommt aus der system default config für die entsprechende distribution. Froxlor arbeitet sonst nur rein mit den Mail Usern aus der Datenbank und hat nichts mit system Usern in dem Sinne am Hut.
  20. ok, ich mach mir mal meinen reim drauf. Ich hab unter -> Einstellungen -> Mailserver-Einstellungen den Dovecot als MDA. Ich hab via Extrausers unter /var/lib/extrausers die Kunden im System. Die haben einen Shell-Zugang. Für all diese User würde der Dovecot jetzt gerne Zugang zu /var/mail haben um dort deren lokales Mailkonto einzurichten bzw. abzurufen. Da hat er aber keinen Zugang zu. Lösung wäre #mail_location = mbox:~/mail:INBOX=/var/mail/%u mail_location = maildir:~/Maildir Dann erhält man z.B. /var/customers/webs/customer1/Maildir weil /var/customers/webs/customer1 ist das Home-Verzeichnis für den Extrauser customer1
  21. Die Kunden-Benutzer / System-user haben aber garkein E-Mail Konto... also [kunde]@[hostname] gibt es schlichtweg nicht...
  22. Die Datenbanktabelle sieht gut aus. Die IDs passen alle zusammen. Die durch Froxlor-Kunden erstellte E-Mail-Adressen sind auch nicht betroffen, sondern die Kunden-Konten selbst. Für alle Kunden / Benutzer welche durch Extrauser im System verfügbar sind möchte Dovecot gerne die Mailbox in /var/mail anlegen bzw sucht dort danach. wenn ich mir die /etc/dovecot/conf.d/ steht dort mail_location = mbox:~/mail:INBOX=/var/mail/%u das entspricht der Vorgabe der Froxlor-Konfiguration für Debian 9
  23. und das aus den logs: und noch viel komsicher passt alles nicht zusammen. a) web1@domain.tld scheint kein E-mail konto zu sein, daher versucht er lokal zuzustellen und landet in /var/mail ... b) home=/var/customers/webs/web1 - das stimmt nicht mit deiner Einstellung überein. Was steht denn in der Froxlor-Tabelle "mail_users" (kompletter auszug bitte, ohne passwörter)
  24. Jan 16 12:28:02 ghost dovecot: lda(web1): Debug: Loading modules from directory: /usr/lib/dovecot/modules Jan 16 12:28:02 ghost dovecot: lda(web1): Debug: Module loaded: /usr/lib/dovecot/modules/lib10_quota_plugin.so Jan 16 12:28:02 ghost dovecot: lda(web1): Debug: Module loaded: /usr/lib/dovecot/modules/lib90_sieve_plugin.so Jan 16 12:28:02 ghost dovecot: lda(web1): Debug: Effective uid=10002, gid=10002, home=/var/customers/webs/web1/ Jan 16 12:28:02 ghost dovecot: lda(web1): Debug: quota: No quota setting - plugin disabled Jan 16 12:28:02 ghost dovecot: lda(web1): Debug: Namespace inbox: type=private, prefix=, sep=, inbox=yes, hidden=no, list=yes, subscriptions=yes location=mbox:~/mail:INBOX=/var/mail/web1 Jan 16 12:28:02 ghost dovecot: lda(web1): Debug: fs: root=/var/customers/webs/web1//mail, index=, indexpvt=, control=, inbox=/var/mail/web1, alt= Jan 16 12:28:02 ghost dovecot: lda(web1): Debug: userdb lookup skipped, username taken from USER environment Jan 16 12:28:02 ghost dovecot: lda(web1): Debug: quota: No quota setting - plugin disabled Jan 16 12:28:02 ghost dovecot: lda(web1): Debug: none: root=, index=, indexpvt=, control=, inbox=, alt= Jan 16 12:28:02 ghost dovecot: lda(web1): Debug: Destination address: web1@mail.domain.com (source: user@hostname) Jan 16 12:28:02 ghost dovecot: lda(web1): Debug: sieve: Pigeonhole version 0.4.16 (fed8554) initializing Jan 16 12:28:02 ghost dovecot: lda(web1): Debug: sieve: include: sieve_global is not set; it is currently not possible to include `:global' scripts. Jan 16 12:28:02 ghost dovecot: lda(web1): Debug: sieve: file storage: Storage path `/var/customers/webs/web1//sieve' not found Jan 16 12:28:02 ghost dovecot: lda(web1): Debug: sieve: file storage: Failed to normalize active script directory (path=/var/customers/webs/web1//sieve): Part of the path does not exist (yet) Jan 16 12:28:02 ghost dovecot: lda(web1): Debug: sieve: file storage: Using Sieve script path: /var/customers/webs/web1//sieve/.dovecot.sieve Jan 16 12:28:02 ghost dovecot: lda(web1): Debug: sieve: file storage: Storage path `/var/customers/webs/web1//sieve/.dovecot.sieve' not found Jan 16 12:28:02 ghost dovecot: lda(web1): Debug: sieve: storage: No default script location configured Jan 16 12:28:02 ghost dovecot: lda(web1): Debug: sieve: User has no personal script Jan 16 12:28:02 ghost dovecot: lda(web1): Debug: sieve: No scripts to execute: reverting to default delivery. Jan 16 12:28:02 ghost dovecot: lda(web1): Debug: Namespace : /var/mail/web1 doesn't exist yet, using default permissions Jan 16 12:28:02 ghost dovecot: lda(web1): Debug: Namespace : Using permissions from /var/customers/webs/web1//mail: mode=0700 gid=default Jan 16 12:28:02 ghost dovecot: lda(web1): Debug: Namespace : /var/mail/web1 doesn't exist yet, using default permissions Jan 16 12:28:02 ghost dovecot: lda(web1): Debug: Namespace : Using permissions from /var/customers/webs/web1//mail: mode=0700 gid=default Jan 16 12:28:02 ghost dovecot: lda(web1): Error: open(/var/mail/web1) failed: Permission denied (euid=10002(web1) egid=10002(web1) missing +w perm: /var/mail, we're not in group 8(mail), dir owned by 0:8 mode=0775) Jan 16 12:28:02 ghost dovecot: lda(web1): Error: Failed to autocreate mailbox INBOX: Internal error occurred. Refer to server log for more information. [2019-01-16 12:28:02] Jan 16 12:28:02 ghost dovecot: lda(web1): Debug: Mailbox stdin: Opened mail UID=1 because: header Message-ID (Cache file is unusable) Jan 16 12:28:02 ghost dovecot: lda(web1): Debug: Mailbox stdin: Opened mail UID=1 because: virtual size (Cache file is unusable) Jan 16 12:28:02 ghost dovecot: lda(web1): msgid=<20190116112802.1ADB9176CB4@mail.domain.com>: save failed to open mailbox INBOX: Internal error occurred. Refer to server log for more information. [2019-01-16 12:28:02] Jan 16 12:28:02 ghost postfix/local[7861]: 1ADB9176CB4: to=<web1@mail.domain.com>, orig_to=<web1>, relay=local, delay=0.02, delays=0/0/0/0.01, dsn=4.3.0, status=deferred (temporary failure) Jan 16 12:28:02 ghost postfix/local[7861]: using backwards-compatible default setting relay_domains=$mydestination to update fast-flush logfile for domain "mail.domain.com" mail_debug = yes aktiviert . Das ist der Auszug aus /var/log/mail.log
  25. Was steht denn in der entprechenden log? Da muss ja mehr stehen. Ggfls mail_debug = yes in der dovecot.conf aktivieren
  26. Owner für /var/customers/mail auch komplett vmail user und group?
  1. Load more activity


×