Fehler beim LDAP-Sync ins Pascom-Telefonbuch

Hallo zusammen,

wir synchronisieren unsere Kontakte in der Nacht aus einem OpenLDAP per Cronjob in die Pascom. Wenn ein Kontakt falsch angelegt ist, bekomme ich eine Fehler-Mail. Im Log erhalte ich eine Fehlermeldung (siehe beigefügten ScreenShot).

Ich weiß zwar nicht, was den Fehler auslöst. Aber ich weiß, wie ich es lösen kann, sofern ich den fehlerhaften Kontakt finde. Und das ist das Problem. Weiß jemand, wie ich rausfinden kann, welcher Kontakt den Fehler auslöst. Ich habe mich schon per ssh auf die Instanz eingeloggt und die im Log genannte Datei angesehen. Da ist es m. E. nicht zu erkennen.

Bin für jeden Tipp dankbar.

Viele Grüße, Markus

Hallo Markus,

in der Zeile steht “Create[] failed”, scheinbar wird also ein “leerer” Kontakt bzw. eine Leere Zeile via LDAP übertragen.

Unter /var/lib/files-pascom/import-raw-4.json finden man laut Log die Daten die aus LDAP an den Connector übergeben werden.
Ggf bringt es etwas diese Datei zu überprüfen, ob hier tatsächlich ein leerer Kontakt übergeben wird, oder ob es Unterschiede zur import-io-4.json Datei gibt, die nach dem Durchlauf des Mappings für den Import generiert wird.

Ich hoffe das hilft weiter.

LG,
Eva

Hallo Eva,
vielen Dank für die Antwort. Also eine Leerzeile finde ich in der Datei nicht. Aber exakt nach dem 500 sten Kontakt steht folgendes in der Datei:


{“version”:“1”}

,

{“dn”:“uid=be07ed70d7bb453be1462403d3a36453,ou=addressbook,uid=Kontakte - mareco,ou=public,ou=addressbook,dc=mareco,dc=ldap”,“objectClass”:[“top”,“inetOrgPerson”,“PostfixBookMailForward”],“uid”:“be07ed70d7bb453be1462403d3a36453”,“cn”:"A$


Wenn ich diesen Kontakt lösche, fehlt diese Sequenz und alles läuft wunderbar durch. Sobald ich den 501sten Kontakt eingebe (Inhalt ganz egal) hat die Datei diese Sequenz und der cronjob wirft einen Fehler. Kann es sein, dass 500 eine Grenze sind, die man irgendwie aufbohren muss?

Vielen Dank für deine Hilfe,

LG, Markus

Hallo @mareco,

das liegt vermutlich an deinem OpenLDAP, dieser bricht nach dem 500. Kontakt ab - schaue mal in dieser Richtung ob sich das “Download Limit” erhöhen lässt.

Eine andere Möglichkeit wäre den Import-Job in mehrere Jobs aufzuteilen, so dass bei jedem Search-Query nicht mehr als 500 Datensätze geliefert werden.

Gruß,
Rapha

Hallo Rapha,
vielen Dank für deine Antwort. Ich glaube nicht, dass es am LDAP-Server liegt. Dem habe ich nämlich schon beigebracht, dass er unbegrenzt Datensätze abrufen soll.

 # AUTO-GENERATED FILE - DO NOT EDIT!! Use ldapmodify.
# CRC32 d1170388
dn: cn=config
objectClass: olcGlobal
cn: config
olcArgsFile: /var/run/slapd/slapd.args
olcLogLevel: none
olcPidFile: /var/run/slapd/slapd.pid
olcToolThreads: 1
structuralObjectClass: olcGlobal
entryUUID: d175f604-f6d8-1039-9b5f-bdbda495b770
creatorsName: cn=config
createTimestamp: 20200310050743Z
olcSizeLimit: unlimited
entryCSN: 20210806132414.868577Z#000000#000#000000
modifiersName: gidNumber=0+uidNumber=0,cn=peercred,cn=external,cn=auth
modifyTimestamp: 20210806132414Z

Die Zeile olcSizeLimit sollte die Begrenzung aufheben. Ein

ldapsearch -h 172.16.32.1 -x -b "dc=domain,dc=tld"

führt auch zu folgendem Ergebnis.

# search result
search: 2
result: 0 Success

# numResponses: 1747
# numEntries: 1746

Insofern meine ich nicht, dass es der LDAP-Server ist, bin aber nach wie vor für jeden Tipp dankbar.

Viele Grüße, Markus

Dann wäre es mal interessant zu sehen wie der ldapsearch von der pascom aussieht, hier kann ja auch ein Limit angegeben sein.

Leider sieht man den Query nicht auf dem Screenshot, evtl. im Logfile des Instanz-Containers?

Gruß,
Rapha

Hallo Rapha,
vielen Dank für deine Antwort, die ich leider erst heute lesen konnte.

Ich habe präventiv mal das SIZELIMIT in /etc/ldap.conf meiner Instanz auf 10.000 erhöht. Das hat aber nichts gebracht, zumal ein

ldapsearch -x -h 172.16.xx.x -b "dc=domain,dc=tld"

sowieso schon 1750 Einträge, also deutlich mehr als die 500 auswirft, die in dem Cronjob eine offensichtliche Grenze darstellen.

Hast du (oder jemand anders) vielleicht noch eine Idee, warum der Cronjob nach exakt 500 Einträgen mit einem Fehler abbricht?

Vielen Dank und viele Grüße, Markus