Ich möchte automatisierte Tests an einer App durchführen, damit ich nicht vor meinem Telefon sitzen und dieselben sich wiederholenden Aufgaben ausführen muss.
Eine Idee ist, eine VNC-Lösung zu verwenden, um eine Verbindung mit dem iPhone herzustellen, und dann eine Art Tastatur-/Mausmakrosoftware auf dem Mac auszuführen. Aber das wird nicht „intelligent“ sein, also frage ich mich, ob es eine Möglichkeit gibt, eine Art KI in den Prozess zu integrieren. Das würde OCR und eine Art Logik-Engine bedeuten. Gibt es so etwas?
Antwort1
iOS verfügt über einen umfangreichen Satz integrierter Mechanismen (UI-Automatisierung genannt), die Ihnen die Interaktion mit Objekten und Bereichen auf dem Bildschirm ermöglichen.
Als Ergebnis gibt es eine Reihe von UI-Automatisierungs-Testlösungen für iOS-Anwendungen, beginnend mit der integriertenBenutzeroberflächenautomatisierungFunktionen in ApplesInstrumenteWerkzeug.
Ich würde vorschlagen, dass Sie damit beginnen und sich dann einige der anderen verfügbaren ansehen:
- KIF(begann mit der Nutzung von ApplesBarrierefreiheitRahmen)
- Appium(das mit iOS und Android funktioniert und Ihnen bekannt vorkommt, wenn SieDer Webtreiber von Selenium)
Antwort2
Ich habe das noch nicht wirklich gemacht, aber die einfachste Lösung, die ich mir vorstellen kann, wäre eine Kombination aus iOSSimulator oder TeamViewer und dannSikuli, mit dem Sie grafisches Scripting mit UI-Elementen durchführen können. Es ist schwer zu beschreiben, aber gehen Sie auf diese Site und sehen Sie sich einige der Test-Demovideos an.
Ich hätte allerdings Bedenken, dass es eine ziemlich brüchige Lösung wäre.