import json
import logging
import os
import random
import re
import string
import urllib
import xml.etree.ElementTree as ET
import zipfile
from datetime import date, datetime
from datetime import timezone as datetime_timezone
from http.client import InvalidURL
from io import StringIO
from typing import List
from urllib.error import HTTPError
from uuid import uuid4

import bleach
import markdown.serializers
import yaml
from django.core.files.images import ImageFile
from markdown import Markdown
from markdown.extensions import Extension
from markdown.inlinepatterns import InlineProcessor
from wagtail.contrib.redirects.models import Redirect
from wagtail.images.models import Image
from wagtail.models import Page
from wagtail.models.media import Collection
from willow.image import UnrecognisedImageFormatError
from yaml.scanner import ScannerError

logger = logging.getLogger(__name__)
# from django.utils.dateparse import parse_date # pro hledani krome title i podle data

image_params = {}  # filled on JekyllArticleImporter init and used globally

POSTS_DIR = "_posts"

# ------------------------------- Misc helper functions -------------------------------


def clone_repo(url: str) -> (str, str):
    """
    Naclonuje repo do tmp s využitím gitu a vrátí cestu k němu.
    Pokud URL končí lomítkem, odebereme ho, a vezmeme jako název repozitáře
    string za posledním lomítkem jako název repa. To použijeme i pro promazání
    takového adresáře, pokud už existuje.
    """
    path = "/tmp/"
    if url.endswith("/"):
        url = url[:-1]
    repo_name = url.split("/")[-1]
    repo_path = os.path.join(path, repo_name)

    os.chdir(path)
    if os.path.exists(repo_path):
        os.chdir(repo_path)
        os.system("git pull --depth 1")
        return repo_path, repo_name

    os.system("git clone --depth 1 {}".format(url))

    return repo_path, repo_name


def download_repo_as_zip(url: str) -> (str, str):
    """
    Stáhne .zip repa, extrahuje a vrátí cestu k extrahovanému repu.
    Hodně nešikovné je, že extrahovaná složka má ještě suffix "-gh-pages"
    a to nevím, jestli platí vždy... regex taky pro název repa také není optimální,
    ale ve finále nehraje moc roli, pokud vrátí cokoliv použitelného pro file name.
    """
    path = "/tmp/"
    repo_name = re.search("pirati-web/(.*)/archive/", url).group(1)
    zip_path = "{}{}.zip".format(path, repo_name)

    if os.path.exists(zip_path):
        os.remove(zip_path)

    urllib.request.urlretrieve(url, zip_path)

    with zipfile.ZipFile(zip_path, "r") as zip_ref:
        zip_ref.extractall(path)

    # zdá se, že někdy je -gh-pages, někdy -master...
    gh_pages_path = os.path.join(path, "{}-gh-pages".format(repo_name))
    if os.path.exists(gh_pages_path):
        return gh_pages_path, repo_name

    master_path = os.path.join(path, "{}-master".format(repo_name))
    if os.path.exists(master_path):
        return master_path, repo_name

    main_path = os.path.join(path, "{}-main".format(repo_name))
    if os.path.exists(main_path):
        return main_path, repo_name

    raise NotImplementedError("Tento zip nedokážeme zpracovat.")


def get_or_create_image(
    path: str, file_path: str, collection, repo_name: str
) -> Image or None:
    """
    Funkce, která se snaží najít a vrátit Wagtail Image.
    Nejdříve hledá v existujících podle cesty, resp. title...
    Pak zkusí najít soubor fyzicky na disku...
    Pak zkusí ještě assets/img adresář...
    Pak zkusí ještě assets/img/posts adresář...
    Pak zkusí stáhnout image z https://a.pirati.cz...
    Pak zkusí přidat do https://a.pirati.cz "posts"...
    Pak se na to vykašle...

    Šla by určitě rozsekat a začistit, ale vzhledem k tomu, že je to
    one-timer, tak jsme to pouze dotáhli do stavu, kdy to schroupne co nejvíce
    případů.
    """

    file_path = file_path.lstrip("/")

    if Image.objects.filter(title=file_path).exists():
        return Image.objects.filter(title=file_path).first(), ""

    try:
        file = ImageFile(open(os.path.join(path, file_path), "rb"), name=file_path)
        image = Image(title=file_path, file=file, collection=collection)
        if not image_params["dry_run"]:
            image.save()
        return image, ""
    except (FileNotFoundError, UnrecognisedImageFormatError):
        pass  # cesta pomocí file_path neexisuje, jdeme dál

    try:
        file = ImageFile(
            open(os.path.join(path, "assets/img", file_path), "rb"),
            name=file_path,
        )
        image = Image(title=file_path, file=file, collection=collection)
        if not image_params["dry_run"]:
            image.save()
        return image, ""
    except (FileNotFoundError, UnrecognisedImageFormatError):
        pass  # cesta s vložením "assets/img" před file_path neexisuje, jdeme dál

    try:
        file = ImageFile(
            open(os.path.join(path, "assets/img/posts", file_path), "rb"),
            name=file_path,
        )
        image = Image(title=file_path, file=file, collection=collection)
        if not image_params["dry_run"]:
            image.save()
        return image, ""
    except (FileNotFoundError, UnrecognisedImageFormatError):
        pass

    # na disku jsme nenašli, zkusíme stáhnout z webu
    fallback_name = (
        "".join(random.choice(string.ascii_lowercase) for _ in range(10)) + ".jpg"
    )  # někdy je název obrzau spojený s poznámkou apod., připravíme si fallback name
    img_name = file_path.split("/")[-1] or fallback_name
    img_path = os.path.join(path, img_name)

    # zkusíme, jestli obrázek není hardcoded (posty ve zlinském kraji)
    if file_path.startswith("https://"):
        try:
            urllib.request.urlretrieve(file_path, img_path)
        except (HTTPError, UnicodeEncodeError, InvalidURL, IsADirectoryError):
            msg = "Nedohledán obrázek při importu článků"
            log_message = "{}: URL {}\n".format(msg, file_path)
            logger.warning(
                log_message,
                extra={"img_name": img_name, "img_url": file_path},
            )
            return None, log_message

    # v opačném případě jdeme zkusit assets server a.pirati.cz
    else:
        img_assets_folder = repo_name.split(".")[0]  # např. "praha" z praha.pirati.cz
        img_url = "https://a.pirati.cz/resize/4000x-/{}/img/{}".format(
            img_assets_folder, file_path.split("#")[0]  # cistime nazev od poznamek apod
        )

        try:
            urllib.request.urlretrieve(img_url, img_path)
        except (HTTPError, UnicodeEncodeError, InvalidURL, IsADirectoryError):
            try:
                # druhý pokus s "posts" přidáno do URL (obvykle je ve file_path)
                img_url = "https://a.pirati.cz/resize/4000x-/{}/img/posts/{}".format(
                    img_assets_folder, img_name.split()[0]
                )
                urllib.request.urlretrieve(img_url, img_path)
            except (HTTPError, UnicodeEncodeError, InvalidURL, IsADirectoryError):
                msg = "Nedohledán obrázek při importu článků - ani na disku, ani na URL"
                log_message = "{}: cesta {}, URL {}\n".format(msg, file_path, img_url)

                logger.warning(
                    log_message,
                    extra={
                        "file_path": file_path,
                        "img_name": img_name,
                        "img_url": img_url,
                    },
                )

                return None, log_message

    file = ImageFile(open(img_path, "rb"), name=img_path)

    try:
        image = Image(title=file_path, file=file, collection=collection)
    except UnrecognisedImageFormatError:
        msg = "Obrázek byl nalezen, ale jeho formát nerozpoznán"
        log_message = "{}: cesta {}\n".format(msg, file_path)

        logger.warning(
            log_message,
            extra={
                "file_path": file_path,
            },
        )

        return None, log_message

    if not image_params["dry_run"]:
        try:
            image.save()
        except Exception as e:
            msg = "Nelze uložit obrázek"
            logger.warning(msg, extra={"exc": e})
            return None, msg

    return image, ""


def get_path_and_repo_name(url: str, use_git: bool) -> (str, str):
    """
    Vrací cestu a název repozitáře podle toho zíksané různými způsoby,
    podle toho jestli se jedná o odkaz na zip nebo na git.
    """
    if use_git:
        return clone_repo(url)
    else:
        return download_repo_as_zip(url)


def get_site_config(path) -> dict:
    """
    Vrací config Jekyll repa jako dict.
    """
    with open(os.path.join(path, "_config.yml")) as f:
        config = yaml.safe_load(f.read())
    return config


def get_title_from_site_config(site_config: dict) -> str:
    if "title" in site_config:
        return " - " + site_config.get("title", "")
    return ""


def unmark_element(element, stream=None):
    """
    Očišťuje element (perex) od ostatních značek
    """
    if stream is None:
        stream = StringIO()
    if element.text:
        stream.write(element.text)
    for sub in element:
        unmark_element(sub, stream)
    if element.tail:
        stream.write(element.tail)
    return stream.getvalue()


# -------------------  Setup markdown extensions and settings -----------------------


class ImgProcessor(InlineProcessor):
    def handleMatch(self, m, data):
        el = ET.Element("embed")
        el.attrib["embedtype"] = "image"
        el.attrib["alt"] = m.group(1)
        el.attrib["format"] = "left"

        parsed_image_path = JekyllArticleImporter.get_parsed_file_path(m.group(2))
        image_obj, _ = get_or_create_image(
            path=image_params["path"],
            file_path=parsed_image_path,
            collection=image_params["collection"],
            repo_name=image_params["repo_name"],
        )

        if not image_obj:
            return None, m.start(0), m.end(0)

        el.attrib["id"] = str(image_obj.pk)
        return el, m.start(0), m.end(0)


class ImgExtension(Extension):
    def extendMarkdown(self, md):
        IMG_PATTERN = r"!\[(.*?)\]\((.*?)\)"
        md.inlinePatterns.register(ImgProcessor(IMG_PATTERN, md), "img", 175)


# Wagtail to portrebuje
# https://docs.wagtail.io/en/stable/extending/rich_text_internals.html#data-format
markdown.serializers.HTML_EMPTY.add("embed")

Markdown.output_formats["plain"] = unmark_element
plain_md = Markdown(output_format="plain")
plain_md.stripTopLevelTags = False

html_md = Markdown(extensions=[ImgExtension()])
params = {}


# ------------------------------- Importer class -------------------------------


class JekyllArticleImporter:
    def __init__(
        self,
        article_parent_page_id: int,
        article_parent_page_model,
        collection_id: int,
        url: str,
        dry_run: bool,
        use_git: bool,
        page_model,
    ):
        self.page_model = page_model

        # Params
        self.article_parent_page_id = article_parent_page_id
        self.article_parent_page_model = article_parent_page_model
        self.collection = Collection.objects.get(id=collection_id)
        self.dry_run = dry_run
        self.use_git = use_git
        self.url = url

        # Computed proprs
        import time

        time.sleep(5)

        self.article_parent_page = self.article_parent_page_model.objects.filter(
            id=self.article_parent_page_id
        ).first()

        self.path, self.repo_name = get_path_and_repo_name(self.url, self.use_git)
        self.site = self.article_parent_page.get_site()
        self.site_config = get_site_config(self.path)

        self.article_path = self.site_config.get("articlepath", None)
        self.permalink = self.site_config.get("permalink", None)
        self.title_suffix = get_title_from_site_config(self.site_config)

        # Counters
        self.success_counter = 0
        self.exists_counter = 0
        self.skipped_counter = 0

        self.page_log = ""  # output saved on page instance

        # Filling global var for ImgParser
        image_params["path"] = self.path
        image_params["collection"] = self.collection
        image_params["repo_name"] = self.repo_name
        image_params["dry_run"] = self.dry_run

    def create_redirects(self, article, match):
        y = match.group(1)
        m = match.group(2)
        d = match.group(3)
        slug = match.group(4)

        if self.article_path:  # asi jenom Ceske Budejovice
            Redirect.objects.get_or_create(
                site=self.site,
                old_path="/%s/%s/%s/%s/%s"
                % (self.article_path, y, m.zfill(2), d.zfill(2), slug),
                defaults={"is_permanent": True, "redirect_page": article},
            )

        elif self.permalink:
            Redirect.objects.get_or_create(
                site=self.site,
                old_path=self.permalink.replace(":title", slug),
                defaults={"is_permanent": True, "redirect_page": article},
            )

    def create_summary_log(self):
        """
        Podle (aktuálních) hodnot counterů přidá do self.page_log
        různé zprávy pro uživatele.
        """
        self.page_log += "==================================\n"

        if self.success_counter:
            base_msg = "Úspěšně otestováno" if self.dry_run else "Úspěšně naimportováno"
            self.page_log += "{} {} článků\n".format(base_msg, self.success_counter)

        if self.exists_counter:
            self.page_log += "z toho {} již existovalo\n".format(self.exists_counter)

        if self.skipped_counter:
            self.page_log += "NELZE importovat {} článků\n".format(self.skipped_counter)

        self.article_parent_page.last_import_log = self.page_log
        self.article_parent_page.save_revision()

    @staticmethod
    def get_parsed_file_path(path: str):
        """
        Získá cestu z proměnné v "{{ }}" závorkách
        """
        if "{{" in path:
            try:
                parsed_path = path.split("{{")[1].split("|")[0].split("'")[1]
            except IndexError:
                parsed_path = path.split("{{")[1].split("|")[0].split('"')[1]
            return parsed_path
        else:
            return path

    @staticmethod
    def get_perex(text):
        text = re.split(r"^\s*$", text.strip(), flags=re.MULTILINE)[0]
        return plain_md.convert(text)

    def handle_content(self, article, meta: dict, html: str):
        """
        Převádí naparsované html do stremfieldů.
        Pokud meta info článku obsahuje "fancybox" - tzn. v článku je galerie,
        tak nejdříve očistíme HTML od for loopů galerie a podtom
        v "self.handle_fancybox_gallery" získáme JSON data pro GalleryBlock
        z ArticleMixinu.
        Pokud článek galerii nemá (drtivá většina), tak uložíme jako
        RichText (block type text).
        """
        if meta.get("fancybox", None):
            # Galerie josu v HTML ve formě dvou "{% for" tagů,
            # ty potřebujeme zahodit z texxtu
            html = re.sub(
                "{% for(.*?){% for(.*?){% endfor %}(.*?){% endfor %}",
                "",
                html,
                flags=re.DOTALL,
            )

            if "{% for" in html:  # pro případ, že by byl jenom jeden
                html = re.sub("{% for(.*?){% endfor %}", "", html, flags=re.DOTALL)

            text_data_dict = {"type": "text", "value": html}
            gallery_data_dict = self.handle_fancybox_gallery(article, meta)
            article.content = json.dumps([text_data_dict, gallery_data_dict])
        else:
            text_data_dict = {"type": "text", "value": html}
            article.content = json.dumps([text_data_dict])

    def handle_fancybox_gallery(self, article, meta: dict) -> dict:
        for gallery in meta["fancybox"]:
            # gallery by měl být dict s name a img
            gallery_name = gallery.get("name", "")
            gallery_images = gallery.get("img", []) or []

            if not len(gallery_images):
                self.page_log += (
                    "{} Nepodařilo se získat obrázky v galerii {}\n".format(
                        article.title, gallery_name
                    )
                )
                continue

            wagtail_image_list = []
            for img in gallery_images:
                if not img.get("src"):
                    self.page_log += (
                        '{}: Obrázek {} v galerii namá atribut "src" \n'.format(
                            article.title, img.get("title", "")
                        )
                    )
                    continue

                wagtail_image, log_message = get_or_create_image(
                    self.path, img["src"], self.collection, self.repo_name
                )
                wagtail_image_list.append(wagtail_image)

                if log_message:
                    self.page_log += "{}: {}".format(article.title, log_message)

            data = {
                "type": "gallery",
                "value": {"gallery_items": []},
                "id": str(uuid4()),
            }

            if not wagtail_image_list:
                return data

            for image in wagtail_image_list:
                data["value"]["gallery_items"].append(
                    {"type": "item", "value": image.id, "id": str(uuid4())}
                )

            return data

    @staticmethod
    def handle_meta_is_str(meta: str) -> dict:
        """
        Snaží se vyřešit situaci, že meta se nenaparsovala na dict, ale na string,
        kde je sice klíč:hodnota, ale další klíč následuje za mezerou po předchozí
        hodnotě.
        Iteruju teda přes rozesekaný string přes dvojtečky, ale každá value kromě
        poslední (viz if idx == len(string_parts) - 2) má za poslední mezerou klíč
        pro další hodnotu. Takže položku z další iterace splitnu přes mezery,
        spojím všechny kromě poslední do value a tu přiřadím klíči z aktuální iterace.
        Poslední položka iterace už je samotná value, takže tam handluju jinak.
        Protože sahám na +1, tak hlídám číslo iterace pro přeskočení poslední (kde
        už je položka iterace pouze value bez key, takže jí beru
        v před-předposlední...).
        """
        logger.info(
            "Meta se neparsuje na dict, ale na str - zkouším složitější parse",
            extra={"article_meta": meta},
        )
        string_parts = meta.split(":")
        meta_dict = {}
        for idx, part in enumerate(string_parts):
            if idx == len(string_parts) - 1:
                break

            key = part.split()[-1]
            if idx == len(string_parts) - 2:
                value = string_parts[idx + 1]
            else:
                value = " ".join(string_parts[idx + 1].split()[0:-1])
            meta_dict.update({key: value})
        return meta_dict

    def handle_tags(self, article, meta):
        article.tags.clear()
        tags = meta.get("tags", []) or []  # někdy jsou tags None

        if type(tags) == str:  # někdy jsou tags str
            if "\n" in tags:
                tags = tags.split("\n")
            elif " " in tags:
                tags = tags.split()
            else:
                tags = [tags]

        for tag_name in tags:
            try:
                article.tags.add(tag_name)
            except ValueError:
                try:
                    article.tags.add(str(tag_name))
                except Exception:
                    msg = "Nelze importovat tag"
                    logger.warning(msg, extra={"tag": tag_name})
                    self.page_log += "{} - {}\n".format(msg, tag_name)

        article.save_revision()

    def import_post(self, file_path):
        with open(os.path.join(self.path, file_path), "rt") as f:
            r = re.split(r"^---\s*$", f.read(), maxsplit=3, flags=re.MULTILINE)
        try:
            meta = yaml.safe_load(r[1].replace("\t", ""))
        except (ScannerError, ValueError, IndexError):
            msg = "Nelze importovat článek - neparsovatelný YAML"
            logger.warning(msg, extra={"file_path": file_path})
            self.page_log += "{} - {}\n".format(msg, file_path)
            self.skipped_counter += 1
            return None

        if isinstance(meta, str):  # pokud se špatně naparsovalo meta (není dict)
            meta = self.handle_meta_is_str(meta)

        try:
            title = meta["title"]
        except TypeError:
            msg = "Nelze importovat článek - nepodařilo se získat title"
            logger.warning(msg, extra={"article_meta": meta})
            self.page_log += "{} - {}\n".format(msg, meta)
            self.skipped_counter += 1
            return None

        try:
            article = (
                self.article_parent_page.get_descendants().get(title=title).specific
            )
            self.exists_counter += 1
        except (Page.DoesNotExist, Page.MultipleObjectsReturned):
            article = self.page_model()

        md = r[2]  # "raw" markdown z postu
        html = html_md.convert(md)
        # očistíme o případné nechtěné HTML tagy
        html = bleach.clean(
            html, tags=list(bleach.sanitizer.ALLOWED_TAGS) + ["div", "p"]
        )

        article.perex = self.get_perex(md) or "..."
        self.handle_content(article, meta, html)

        if meta.get("date", None):
            meta_date = meta["date"]

            if isinstance(meta_date, date):
                article.timestamp = datetime(
                    meta_date.year, meta_date.month, meta_date.day
                ).replace(tzinfo=datetime_timezone.utc)
            else:
                parsed_date = meta["date"].split()[0]

                if parsed_date:
                    article.timestamp = datetime.strptime(
                        parsed_date[0:10], "%Y-%m-%d"
                    ).replace(tzinfo=datetime_timezone.utc)
                else:
                    log_message = (
                        "Článek {} má nesprávné datum: {}, nastavuji dnešní".format(
                            title, meta["date"]
                        )
                    )

                    logger.warning(log_message)
                    self.page_log += "{} - {}\n".format(log_message, meta)

                    article.timestamp = timestamp.now()
        else:
            filename = os.path.basename(file_path)

            parsed_date = "-".join(filename.split("-")[:3])

            if parsed_date:
                article.timestamp = datetime.strptime(parsed_date, "%Y-%m-%d").replace(
                    tzinfo=datetime_timezone.utc
                )
            else:
                log_message = (
                    "Článek {} má nesprávné datum: {}, nastavuji dnešní".format(
                        title, meta["date"]
                    )
                )

                logger.warning(log_message)
                self.page_log += "{} - {}\n".format(log_message, meta)

        article.title = meta["title"]
        article.author = meta.get("author", "Česká pirátská strana")

        article.seo_title = article.title + self.title_suffix
        article.search_description = meta.get("description", "")

        if meta.get("image", None):
            article.image, log_message = get_or_create_image(
                self.path, meta["image"], self.collection, self.repo_name
            )
            if log_message:
                self.page_log += "{}: {}".format(article.title, log_message)

        if self.dry_run:
            return article

        try:
            if not article.id:
                self.article_parent_page.add_child(instance=article)

            logger.info("Vytvářím článek: %s" % article)
            rev = article.save_revision()

            if meta.get("published", True):
                rev.publish()
        except Exception as e:
            msg = "Nelze uložit importovaný článek"
            logger.warning(
                msg,
                extra={"article_title": article.title, "exception": e},
            )
            self.page_log += "{} - {} - {}\n".format(msg, article.title, e)
            self.skipped_counter += 1
            return article

        self.handle_tags(article, meta)

        self.success_counter += 1
        return article

    def perform_import(self) -> "List[dict]":
        """
        Projde adresář článků a pokusí se zprocesovat Markdown do article.
        Vrací list dict pro django messages (klíč levelu, text).
        Začne vyčištěním logu.
        """

        try:
            self.article_parent_page.last_import_log = ""
            self.article_parent_page.save()

            msg = "{} Import započat".format(datetime.now())
            logger.info(msg)
            self.page_log += "{}\n\n".format(msg)

            for file_name in os.listdir(os.path.join(self.path, POSTS_DIR)):
                # Případ podsložek (typicky po jednotlivých letech)
                if os.path.isdir(os.path.join(self.path, POSTS_DIR, file_name)):
                    posts_sub_folder = os.path.join(self.path, POSTS_DIR, file_name)
                    for sub_file_name in os.listdir(posts_sub_folder):
                        file_path = os.path.join(posts_sub_folder, sub_file_name)
                        self.process_article(sub_file_name, file_path)
                # Případ všech článků v jedné složce
                else:
                    file_path = os.path.join(POSTS_DIR, file_name)
                    self.process_article(file_name, file_path)

            msg = "{} Import ukončen".format(datetime.now())
            logger.info(msg)
            self.page_log += "{}\n\n".format(msg)

            self.create_summary_log()
        finally:
            import_lock_filename = f"/tmp/.{self.article_parent_page_id}.import-lock"

            if os.path.exists(import_lock_filename):
                os.remove(import_lock_filename)

    def process_article(self, file_name: str, file_path: str):
        match = re.match(r"(\d*)-(\d*)-(\d*)-(.*)\.(.*)", file_name)
        if match:
            ext = match.group(5)

            if ext == "md":
                article = self.import_post(file_path)

                if self.dry_run or not article:
                    return

                try:
                    article.save()  # ujistím se, že mám "redirect_page" pro Redirect uloženou
                    self.create_redirects(article, match)
                except Exception as e:
                    msg = "{}: nelze uložit - {}".format(article.title, e)
                    logger.error(msg)
                    self.page_log += "{}\n".format(msg)
                    self.skipped_counter += 1
            else:
                msg = "Nepodporovaná přípona souboru: %s" % ext
                logger.warning(msg)
                self.page_log += "{}\n".format(msg)
                self.skipped_counter += 1
        else:
            msg = "Přeskočeno: %s" % file_name
            logger.warning(msg)
            self.page_log += "{}\n".format(msg)
            self.skipped_counter += 1