commit
1b3b5d95c0
@ -0,0 +1,172 @@
|
|||||||
|
package org.koitharu.kotatsu.parsers.site.en
|
||||||
|
|
||||||
|
import okhttp3.Headers
|
||||||
|
import org.json.JSONArray
|
||||||
|
import org.jsoup.nodes.Document
|
||||||
|
import org.koitharu.kotatsu.parsers.MangaLoaderContext
|
||||||
|
import org.koitharu.kotatsu.parsers.MangaSourceParser
|
||||||
|
import org.koitharu.kotatsu.parsers.PagedMangaParser
|
||||||
|
import org.koitharu.kotatsu.parsers.config.ConfigKey
|
||||||
|
import org.koitharu.kotatsu.parsers.model.*
|
||||||
|
import org.koitharu.kotatsu.parsers.network.UserAgents
|
||||||
|
import org.koitharu.kotatsu.parsers.util.*
|
||||||
|
import java.text.SimpleDateFormat
|
||||||
|
import java.util.*
|
||||||
|
|
||||||
|
@MangaSourceParser("DYNASTYSCANS", "Dynasty Scans", "en")
|
||||||
|
internal class DynastyScans(context: MangaLoaderContext) : PagedMangaParser(context, MangaSource.DYNASTYSCANS, 117) {
|
||||||
|
override val sortOrders: Set<SortOrder> = EnumSet.of(SortOrder.ALPHABETICAL)
|
||||||
|
override val configKeyDomain = ConfigKey.Domain("dynasty-scans.com")
|
||||||
|
|
||||||
|
override val headers: Headers = Headers.Builder()
|
||||||
|
.add("User-Agent", UserAgents.CHROME_DESKTOP)
|
||||||
|
.build()
|
||||||
|
|
||||||
|
override suspend fun getListPage(
|
||||||
|
page: Int,
|
||||||
|
query: String?,
|
||||||
|
tags: Set<MangaTag>?,
|
||||||
|
sortOrder: SortOrder,
|
||||||
|
): List<Manga> {
|
||||||
|
val url = buildString {
|
||||||
|
append("https://")
|
||||||
|
append(domain)
|
||||||
|
if (!query.isNullOrEmpty()) {
|
||||||
|
append("/search?q=")
|
||||||
|
append(query.urlEncoded())
|
||||||
|
append("&")
|
||||||
|
append("classes[]".urlEncoded())
|
||||||
|
append("=Serie&page=")
|
||||||
|
append(page.toString())
|
||||||
|
} else if (!tags.isNullOrEmpty()) {
|
||||||
|
append("/tags/")
|
||||||
|
for (tag in tags) {
|
||||||
|
append(tag.key)
|
||||||
|
}
|
||||||
|
append("?view=groupings&page=")
|
||||||
|
append(page.toString())
|
||||||
|
} else {
|
||||||
|
append("/series?view=cover&page=")
|
||||||
|
append(page.toString())
|
||||||
|
}
|
||||||
|
}
|
||||||
|
val doc = webClient.httpGet(url).parseHtml()
|
||||||
|
|
||||||
|
//There are no images on the search page
|
||||||
|
if (!query.isNullOrEmpty()) {
|
||||||
|
return doc.select("dl.chapter-list dd")
|
||||||
|
.map { div ->
|
||||||
|
val href = div.selectFirstOrThrow("a").attrAsAbsoluteUrl("href")
|
||||||
|
Manga(
|
||||||
|
id = generateUid(href),
|
||||||
|
title = div.selectFirstOrThrow("a").text(),
|
||||||
|
altTitle = null,
|
||||||
|
url = href,
|
||||||
|
publicUrl = href.toAbsoluteUrl(domain),
|
||||||
|
rating = RATING_UNKNOWN,
|
||||||
|
isNsfw = false,
|
||||||
|
coverUrl = "",
|
||||||
|
tags = div.select("span.tags a").mapNotNullToSet { a ->
|
||||||
|
MangaTag(
|
||||||
|
key = a.attr("href").removeSuffix('/').substringAfterLast('/'),
|
||||||
|
title = a.text(),
|
||||||
|
source = source,
|
||||||
|
)
|
||||||
|
},
|
||||||
|
state = null,
|
||||||
|
author = null,
|
||||||
|
source = source,
|
||||||
|
)
|
||||||
|
}
|
||||||
|
} else {
|
||||||
|
return doc.select("li.span2")
|
||||||
|
.map { div ->
|
||||||
|
val href = div.selectFirstOrThrow("a").attrAsAbsoluteUrl("href")
|
||||||
|
Manga(
|
||||||
|
id = generateUid(href),
|
||||||
|
title = div.selectFirstOrThrow("div.caption").text(),
|
||||||
|
altTitle = null,
|
||||||
|
url = href,
|
||||||
|
publicUrl = href.toAbsoluteUrl(domain),
|
||||||
|
rating = RATING_UNKNOWN,
|
||||||
|
isNsfw = false,
|
||||||
|
coverUrl = div.selectFirstOrThrow("img").attrAsAbsoluteUrl("src"),
|
||||||
|
tags = setOf(),
|
||||||
|
state = null,
|
||||||
|
author = null,
|
||||||
|
source = source,
|
||||||
|
)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
}
|
||||||
|
|
||||||
|
override suspend fun getTags(): Set<MangaTag> = emptySet()
|
||||||
|
|
||||||
|
override suspend fun getDetails(manga: Manga): Manga {
|
||||||
|
val doc = webClient.httpGet(manga.url.toAbsoluteUrl(domain)).parseHtml()
|
||||||
|
val chapters = getChapters(doc)
|
||||||
|
val root = doc.requireElementById("main")
|
||||||
|
return manga.copy(
|
||||||
|
altTitle = null,
|
||||||
|
state = when (root.select("h2.tag-title small").last()?.text()) {
|
||||||
|
"— Ongoing" -> MangaState.ONGOING
|
||||||
|
"— Completed" -> MangaState.FINISHED
|
||||||
|
else -> null
|
||||||
|
},
|
||||||
|
coverUrl = root.selectFirst("img.thumbnail")?.src()
|
||||||
|
.orEmpty(), // It is needed if the manga was found via the search.
|
||||||
|
tags = root.select("div.tag-tags a").mapNotNullToSet { a ->
|
||||||
|
val href = a.attr("href").removeSuffix('/').substringAfterLast('/')
|
||||||
|
MangaTag(
|
||||||
|
key = href,
|
||||||
|
title = a.text(),
|
||||||
|
source = source,
|
||||||
|
)
|
||||||
|
},
|
||||||
|
author = null,
|
||||||
|
description = null,
|
||||||
|
chapters = chapters,
|
||||||
|
)
|
||||||
|
}
|
||||||
|
|
||||||
|
private fun getChapters(doc: Document): List<MangaChapter> {
|
||||||
|
val dateFormat = SimpleDateFormat("MMM dd yy", sourceLocale)
|
||||||
|
return doc.body().select("dl.chapter-list dd").mapChapters { i, li ->
|
||||||
|
val a = li.selectFirstOrThrow("a")
|
||||||
|
val href = a.attrAsRelativeUrl("href")
|
||||||
|
val dateText = li.select("small").last()?.text()?.replace("released ", "")?.replace("'", "")
|
||||||
|
MangaChapter(
|
||||||
|
id = generateUid(href),
|
||||||
|
name = a.text(),
|
||||||
|
number = i + 1,
|
||||||
|
url = href,
|
||||||
|
uploadDate = dateFormat.tryParse(dateText),
|
||||||
|
source = source,
|
||||||
|
scanlator = null,
|
||||||
|
branch = null,
|
||||||
|
)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
override suspend fun getPages(chapter: MangaChapter): List<MangaPage> {
|
||||||
|
val chapterUrl = chapter.url.toAbsoluteUrl(domain)
|
||||||
|
val docs = webClient.httpGet(chapterUrl).parseHtml()
|
||||||
|
val script = docs.selectFirstOrThrow("script:containsData(var pages =)")
|
||||||
|
val json = JSONArray(script.data().substringAfter('=').substringBeforeLast(';'))
|
||||||
|
val pages = ArrayList<MangaPage>(json.length())
|
||||||
|
for (i in 0 until json.length()) {
|
||||||
|
val url = "https://" + domain + json.getString(i).substringAfter(":\"").substringBefore("\",")
|
||||||
|
pages.add(
|
||||||
|
MangaPage(
|
||||||
|
id = generateUid(url),
|
||||||
|
url = url,
|
||||||
|
preview = null,
|
||||||
|
source = source,
|
||||||
|
),
|
||||||
|
)
|
||||||
|
}
|
||||||
|
return pages
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
@ -0,0 +1,199 @@
|
|||||||
|
package org.koitharu.kotatsu.parsers.site.en
|
||||||
|
|
||||||
|
import kotlinx.coroutines.coroutineScope
|
||||||
|
import okhttp3.Headers
|
||||||
|
import org.jsoup.nodes.Document
|
||||||
|
import org.koitharu.kotatsu.parsers.MangaLoaderContext
|
||||||
|
import org.koitharu.kotatsu.parsers.MangaSourceParser
|
||||||
|
import org.koitharu.kotatsu.parsers.PagedMangaParser
|
||||||
|
import org.koitharu.kotatsu.parsers.config.ConfigKey
|
||||||
|
import org.koitharu.kotatsu.parsers.model.*
|
||||||
|
import org.koitharu.kotatsu.parsers.network.UserAgents
|
||||||
|
import org.koitharu.kotatsu.parsers.util.*
|
||||||
|
import org.koitharu.kotatsu.parsers.util.json.mapJSON
|
||||||
|
import java.text.SimpleDateFormat
|
||||||
|
import java.util.*
|
||||||
|
|
||||||
|
@MangaSourceParser("MANGAOWL", "Mangaowl", "en")
|
||||||
|
internal class Mangaowl(context: MangaLoaderContext) :
|
||||||
|
PagedMangaParser(context, MangaSource.MANGAOWL, pageSize = 24) {
|
||||||
|
|
||||||
|
override val sortOrders: Set<SortOrder> = EnumSet.of(
|
||||||
|
SortOrder.POPULARITY,
|
||||||
|
SortOrder.NEWEST,
|
||||||
|
SortOrder.UPDATED,
|
||||||
|
SortOrder.RATING,
|
||||||
|
)
|
||||||
|
|
||||||
|
override val configKeyDomain = ConfigKey.Domain("mangaowl.to")
|
||||||
|
|
||||||
|
override val headers: Headers = Headers.Builder()
|
||||||
|
.add("User-Agent", UserAgents.CHROME_DESKTOP)
|
||||||
|
.build()
|
||||||
|
|
||||||
|
override suspend fun getListPage(
|
||||||
|
page: Int,
|
||||||
|
query: String?,
|
||||||
|
tags: Set<MangaTag>?,
|
||||||
|
sortOrder: SortOrder,
|
||||||
|
): List<Manga> {
|
||||||
|
val sort = when (sortOrder) {
|
||||||
|
SortOrder.POPULARITY -> "view_count"
|
||||||
|
SortOrder.UPDATED -> "-modified_at"
|
||||||
|
SortOrder.NEWEST -> "created_at"
|
||||||
|
SortOrder.RATING -> "rating"
|
||||||
|
else -> "modified_at"
|
||||||
|
}
|
||||||
|
val url = buildString {
|
||||||
|
append("https://")
|
||||||
|
append(domain)
|
||||||
|
when {
|
||||||
|
!query.isNullOrEmpty() -> {
|
||||||
|
append("/8-search")
|
||||||
|
append("?q=")
|
||||||
|
append(query.urlEncoded())
|
||||||
|
append("&page=")
|
||||||
|
append(page.toString())
|
||||||
|
}
|
||||||
|
|
||||||
|
!tags.isNullOrEmpty() -> {
|
||||||
|
append("/8-genres/")
|
||||||
|
for (tag in tags) {
|
||||||
|
append(tag.key)
|
||||||
|
}
|
||||||
|
append("?page=")
|
||||||
|
append(page.toString())
|
||||||
|
}
|
||||||
|
|
||||||
|
else -> {
|
||||||
|
|
||||||
|
append("/8-comics")
|
||||||
|
append("?page=")
|
||||||
|
append(page.toString())
|
||||||
|
append("&ordering=")
|
||||||
|
append(sort)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
val doc = webClient.httpGet(url).parseHtml()
|
||||||
|
return doc.select("div.manga-item.column").map { div ->
|
||||||
|
val href = div.selectFirstOrThrow("a").attrAsRelativeUrl("href")
|
||||||
|
Manga(
|
||||||
|
id = generateUid(href),
|
||||||
|
url = href,
|
||||||
|
publicUrl = href.toAbsoluteUrl(div.host ?: domain),
|
||||||
|
coverUrl = div.selectFirst("img")?.src().orEmpty(),
|
||||||
|
title = div.selectFirst("a.one-line")?.text().orEmpty(),
|
||||||
|
altTitle = null,
|
||||||
|
rating = div.select("span").last()?.text()?.toFloatOrNull()?.div(5f) ?: RATING_UNKNOWN,
|
||||||
|
tags = emptySet(),
|
||||||
|
author = null,
|
||||||
|
state = null,
|
||||||
|
source = source,
|
||||||
|
isNsfw = false,
|
||||||
|
)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
override suspend fun getTags(): Set<MangaTag> {
|
||||||
|
val doc = webClient.httpGet("https://$domain/8-genres").parseHtml()
|
||||||
|
return doc.select("div.genres-container span.genre-item a").mapNotNullToSet { a ->
|
||||||
|
val key = a.attr("href").substringAfterLast("/")
|
||||||
|
MangaTag(
|
||||||
|
key = key,
|
||||||
|
title = a.text(),
|
||||||
|
source = source,
|
||||||
|
)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
override suspend fun getDetails(manga: Manga): Manga = coroutineScope {
|
||||||
|
val fullUrl = manga.url.toAbsoluteUrl(domain)
|
||||||
|
val doc = webClient.httpGet(fullUrl).parseHtml()
|
||||||
|
manga.copy(
|
||||||
|
tags = doc.body().select("div.comic-attrs div.column.my-2:contains(Genres) a").mapNotNullToSet { a ->
|
||||||
|
MangaTag(
|
||||||
|
key = a.attr("href").removeSuffix("/").substringAfterLast('/'),
|
||||||
|
title = a.text().toTitleCase().replace(",", ""),
|
||||||
|
source = source,
|
||||||
|
)
|
||||||
|
},
|
||||||
|
description = doc.select("span.story-desc").html(),
|
||||||
|
state = when (doc.select("div.section-status:contains(Status) span").last()?.text()) {
|
||||||
|
"Ongoing" -> MangaState.ONGOING
|
||||||
|
"Completed" -> MangaState.FINISHED
|
||||||
|
else -> null
|
||||||
|
},
|
||||||
|
chapters = getChapters(manga.url, doc),
|
||||||
|
)
|
||||||
|
}
|
||||||
|
|
||||||
|
private fun getChapters(mangaUrl: String, doc: Document): List<MangaChapter> {
|
||||||
|
|
||||||
|
val dateFormat = SimpleDateFormat("yyyy-MM-dd'T'HH:mm:ss.SSSSSS'Z'", sourceLocale)
|
||||||
|
|
||||||
|
val script = doc.selectFirstOrThrow("script:containsData(chapters:)")
|
||||||
|
val json =
|
||||||
|
script.data().substringAfter("chapters:[").substringBeforeLast(')').substringBefore("],latest_chapter:")
|
||||||
|
.split("},")
|
||||||
|
val slug = mangaUrl.substringAfterLast("/")
|
||||||
|
|
||||||
|
val chapter = ArrayList<MangaChapter>()
|
||||||
|
val num = 0
|
||||||
|
json.map { t ->
|
||||||
|
if (t.contains("Chapter")) {
|
||||||
|
val id = t.substringAfter("id:").substringBefore(",created_at")
|
||||||
|
val url = "/reading/$slug/$id"
|
||||||
|
|
||||||
|
val date = t.substringAfter("created_at:\"").substringBefore("\"")
|
||||||
|
val name = t.substringAfter("name:\"").substringBefore("\"")
|
||||||
|
chapter.add(
|
||||||
|
MangaChapter(
|
||||||
|
id = generateUid(url),
|
||||||
|
name = name,
|
||||||
|
number = num + 1,
|
||||||
|
url = url,
|
||||||
|
uploadDate = dateFormat.tryParse(date),
|
||||||
|
source = source,
|
||||||
|
scanlator = null,
|
||||||
|
branch = null,
|
||||||
|
),
|
||||||
|
)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
// last chapter
|
||||||
|
val id = script.data().substringAfter("Sign in\",").substringBefore(",\"").split(",").last()
|
||||||
|
val url = "/reading/$slug/$id"
|
||||||
|
val date = script.data().substringAfter("$id,\"").substringBefore("\",")
|
||||||
|
val name = script.data().substringAfter("$date\",\"").substringBefore("\",")
|
||||||
|
chapter.add(
|
||||||
|
MangaChapter(
|
||||||
|
id = generateUid(url),
|
||||||
|
name = name,
|
||||||
|
number = num + 1,
|
||||||
|
url = url,
|
||||||
|
uploadDate = dateFormat.tryParse(date),
|
||||||
|
source = source,
|
||||||
|
scanlator = null,
|
||||||
|
branch = null,
|
||||||
|
),
|
||||||
|
)
|
||||||
|
|
||||||
|
return chapter
|
||||||
|
}
|
||||||
|
|
||||||
|
override suspend fun getPages(chapter: MangaChapter): List<MangaPage> {
|
||||||
|
val id = chapter.url.substringAfterLast("/")
|
||||||
|
|
||||||
|
val json = webClient.httpGet("https://api.mangaowl.to/v1/chapters/$id/images?page_size=100").parseJson()
|
||||||
|
return json.getJSONArray("results").mapJSON { jo ->
|
||||||
|
MangaPage(
|
||||||
|
id = generateUid(jo.getString("image")),
|
||||||
|
preview = null,
|
||||||
|
source = chapter.source,
|
||||||
|
url = jo.getString("image"),
|
||||||
|
)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
@ -0,0 +1,133 @@
|
|||||||
|
package org.koitharu.kotatsu.parsers.site.en
|
||||||
|
|
||||||
|
import kotlinx.coroutines.coroutineScope
|
||||||
|
import okhttp3.Headers
|
||||||
|
import org.jsoup.nodes.Document
|
||||||
|
import org.koitharu.kotatsu.parsers.MangaLoaderContext
|
||||||
|
import org.koitharu.kotatsu.parsers.MangaSourceParser
|
||||||
|
import org.koitharu.kotatsu.parsers.PagedMangaParser
|
||||||
|
import org.koitharu.kotatsu.parsers.config.ConfigKey
|
||||||
|
import org.koitharu.kotatsu.parsers.model.*
|
||||||
|
import org.koitharu.kotatsu.parsers.network.UserAgents
|
||||||
|
import org.koitharu.kotatsu.parsers.util.*
|
||||||
|
import java.util.*
|
||||||
|
|
||||||
|
@MangaSourceParser("TEMPLESCAN", "TempleScan", "en")
|
||||||
|
internal class TempleScan(context: MangaLoaderContext) :
|
||||||
|
PagedMangaParser(context, MangaSource.TEMPLESCAN, pageSize = 15) {
|
||||||
|
|
||||||
|
override val sortOrders: Set<SortOrder> = EnumSet.of(SortOrder.NEWEST, SortOrder.UPDATED)
|
||||||
|
|
||||||
|
override val configKeyDomain = ConfigKey.Domain("templescan.net")
|
||||||
|
|
||||||
|
override val headers: Headers = Headers.Builder()
|
||||||
|
.add("User-Agent", UserAgents.CHROME_DESKTOP)
|
||||||
|
.build()
|
||||||
|
|
||||||
|
override suspend fun getListPage(
|
||||||
|
page: Int,
|
||||||
|
query: String?,
|
||||||
|
tags: Set<MangaTag>?,
|
||||||
|
sortOrder: SortOrder,
|
||||||
|
): List<Manga> {
|
||||||
|
val url = buildString {
|
||||||
|
append("https://")
|
||||||
|
append(domain)
|
||||||
|
if (sortOrder == SortOrder.NEWEST) {
|
||||||
|
append("/comics")
|
||||||
|
append("?page=")
|
||||||
|
append(page.toString())
|
||||||
|
} else {
|
||||||
|
if (page > 1) {
|
||||||
|
return emptyList()
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
val doc = webClient.httpGet(url).parseHtml()
|
||||||
|
return doc.select("div.grid figure").ifEmpty {
|
||||||
|
doc.requireElementById("projectsDiv").select("figure")
|
||||||
|
}.map { div ->
|
||||||
|
val href = div.selectFirstOrThrow("a").attrAsRelativeUrl("href")
|
||||||
|
Manga(
|
||||||
|
id = generateUid(href),
|
||||||
|
url = href,
|
||||||
|
publicUrl = href.toAbsoluteUrl(div.host ?: domain),
|
||||||
|
coverUrl = div.selectFirst("img")?.src().orEmpty(),
|
||||||
|
title = div.selectFirst("figcaption")?.text().orEmpty(),
|
||||||
|
altTitle = null,
|
||||||
|
rating = RATING_UNKNOWN,
|
||||||
|
tags = emptySet(),
|
||||||
|
author = null,
|
||||||
|
state = null,
|
||||||
|
source = source,
|
||||||
|
isNsfw = false,
|
||||||
|
)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
override suspend fun getTags(): Set<MangaTag> = emptySet()
|
||||||
|
|
||||||
|
override suspend fun getDetails(manga: Manga): Manga = coroutineScope {
|
||||||
|
val fullUrl = manga.url.toAbsoluteUrl(domain)
|
||||||
|
val doc = webClient.httpGet(fullUrl).parseHtml()
|
||||||
|
val chaptersDeferred = getChapters(doc)
|
||||||
|
manga.copy(
|
||||||
|
description = doc.requireElementById("section-sinopsis").html(),
|
||||||
|
chapters = chaptersDeferred,
|
||||||
|
isNsfw = false,
|
||||||
|
)
|
||||||
|
}
|
||||||
|
|
||||||
|
private fun getChapters(doc: Document): List<MangaChapter> {
|
||||||
|
return doc.body().select("div.grid-capitulos div.contenedor-capitulo-miniatura")
|
||||||
|
.mapChapters(reversed = true) { i, div ->
|
||||||
|
val href = div.selectFirstOrThrow("a").attrAsRelativeUrl("href")
|
||||||
|
val date = parseUploadDate(div.selectFirstOrThrow("time").text())
|
||||||
|
MangaChapter(
|
||||||
|
id = generateUid(href),
|
||||||
|
name = div.requireElementById("name").text(),
|
||||||
|
number = i + 1,
|
||||||
|
url = href,
|
||||||
|
uploadDate = date,
|
||||||
|
source = source,
|
||||||
|
scanlator = null,
|
||||||
|
branch = null,
|
||||||
|
)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
override suspend fun getPages(chapter: MangaChapter): List<MangaPage> {
|
||||||
|
val fullUrl = chapter.url.toAbsoluteUrl(domain)
|
||||||
|
val doc = webClient.httpGet(fullUrl).parseHtml()
|
||||||
|
return doc.select("main.contenedor-imagen img").map { url ->
|
||||||
|
val img = url.src()?.toRelativeUrl(domain) ?: url.parseFailed("Image src not found")
|
||||||
|
MangaPage(
|
||||||
|
id = generateUid(img),
|
||||||
|
url = img,
|
||||||
|
preview = null,
|
||||||
|
source = source,
|
||||||
|
)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
private fun parseUploadDate(timeStr: String?): Long {
|
||||||
|
timeStr ?: return 0
|
||||||
|
val timeWords = timeStr.split(' ')
|
||||||
|
if (timeWords.size != 3) return 0
|
||||||
|
val timeWord = timeWords[1]
|
||||||
|
val timeAmount = timeWords[0].toIntOrNull() ?: return 0
|
||||||
|
val timeUnit = when (timeWord) {
|
||||||
|
"minute", "minutes" -> Calendar.MINUTE
|
||||||
|
"hour", "hours" -> Calendar.HOUR
|
||||||
|
"day", "days" -> Calendar.DAY_OF_YEAR
|
||||||
|
"week", "weeks" -> Calendar.WEEK_OF_YEAR
|
||||||
|
"month", "months" -> Calendar.MONTH
|
||||||
|
"year", "years" -> Calendar.YEAR
|
||||||
|
else -> return 0
|
||||||
|
}
|
||||||
|
val cal = Calendar.getInstance()
|
||||||
|
cal.add(timeUnit, -timeAmount)
|
||||||
|
return cal.time.time
|
||||||
|
}
|
||||||
|
}
|
||||||
@ -0,0 +1,158 @@
|
|||||||
|
package org.koitharu.kotatsu.parsers.site.fr
|
||||||
|
|
||||||
|
import kotlinx.coroutines.coroutineScope
|
||||||
|
import okhttp3.Headers
|
||||||
|
import org.jsoup.nodes.Document
|
||||||
|
import org.koitharu.kotatsu.parsers.MangaLoaderContext
|
||||||
|
import org.koitharu.kotatsu.parsers.MangaSourceParser
|
||||||
|
import org.koitharu.kotatsu.parsers.PagedMangaParser
|
||||||
|
import org.koitharu.kotatsu.parsers.config.ConfigKey
|
||||||
|
import org.koitharu.kotatsu.parsers.model.*
|
||||||
|
import org.koitharu.kotatsu.parsers.network.UserAgents
|
||||||
|
import org.koitharu.kotatsu.parsers.util.*
|
||||||
|
import java.text.DateFormat
|
||||||
|
import java.text.SimpleDateFormat
|
||||||
|
import java.util.*
|
||||||
|
|
||||||
|
@MangaSourceParser("FURYOSOCIETY", "Furyo Society", "fr")
|
||||||
|
internal class FuryoSociety(context: MangaLoaderContext) :
|
||||||
|
PagedMangaParser(context, MangaSource.FURYOSOCIETY, 0) {
|
||||||
|
|
||||||
|
override val sortOrders: Set<SortOrder> = EnumSet.of(SortOrder.ALPHABETICAL, SortOrder.UPDATED)
|
||||||
|
|
||||||
|
override val configKeyDomain = ConfigKey.Domain("furyosociety.com")
|
||||||
|
|
||||||
|
override val headers: Headers = Headers.Builder()
|
||||||
|
.add("User-Agent", UserAgents.CHROME_DESKTOP)
|
||||||
|
.build()
|
||||||
|
|
||||||
|
override suspend fun getFavicons(): Favicons {
|
||||||
|
return Favicons(
|
||||||
|
listOf(
|
||||||
|
Favicon("https://$domain/fs_favicon/favicon-32x32.png", 32, null),
|
||||||
|
),
|
||||||
|
domain,
|
||||||
|
)
|
||||||
|
}
|
||||||
|
|
||||||
|
override suspend fun getListPage(
|
||||||
|
page: Int,
|
||||||
|
query: String?,
|
||||||
|
tags: Set<MangaTag>?,
|
||||||
|
sortOrder: SortOrder,
|
||||||
|
): List<Manga> {
|
||||||
|
val url = buildString {
|
||||||
|
append("https://")
|
||||||
|
append(domain)
|
||||||
|
if (page == 1) {
|
||||||
|
if (sortOrder == SortOrder.ALPHABETICAL) {
|
||||||
|
append("/mangas")
|
||||||
|
}
|
||||||
|
} else {
|
||||||
|
return emptyList()
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
val doc = webClient.httpGet(url).parseHtml()
|
||||||
|
return doc.select("div.fs-card-container div.grid-item-container").ifEmpty {
|
||||||
|
doc.select("div.container-tight.latest table tr")
|
||||||
|
}.map { div ->
|
||||||
|
val href = div.selectFirstOrThrow("a").attrAsRelativeUrl("href")
|
||||||
|
Manga(
|
||||||
|
id = generateUid(href),
|
||||||
|
url = href,
|
||||||
|
publicUrl = href.toAbsoluteUrl(div.host ?: domain),
|
||||||
|
coverUrl = div.selectFirst("img")?.src().orEmpty(),
|
||||||
|
title = (div.selectFirst("div.media-body") ?: div.selectFirst("a"))?.text().orEmpty(),
|
||||||
|
altTitle = null,
|
||||||
|
rating = RATING_UNKNOWN,
|
||||||
|
tags = emptySet(),
|
||||||
|
author = null,
|
||||||
|
state = null,
|
||||||
|
source = source,
|
||||||
|
isNsfw = false,
|
||||||
|
)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
|
||||||
|
override suspend fun getTags(): Set<MangaTag> = emptySet()
|
||||||
|
|
||||||
|
|
||||||
|
override suspend fun getDetails(manga: Manga): Manga = coroutineScope {
|
||||||
|
val fullUrl = manga.url.toAbsoluteUrl(domain)
|
||||||
|
val doc = webClient.httpGet(fullUrl).parseHtml()
|
||||||
|
val chaptersDeferred = getChapters(doc)
|
||||||
|
manga.copy(
|
||||||
|
description = doc.selectFirstOrThrow("div.fs-comic-description").html(),
|
||||||
|
chapters = chaptersDeferred,
|
||||||
|
isNsfw = doc.selectFirst(".adult-text") != null,
|
||||||
|
)
|
||||||
|
}
|
||||||
|
|
||||||
|
|
||||||
|
private fun getChapters(doc: Document): List<MangaChapter> {
|
||||||
|
return doc.body().select("div.list.fs-chapter-list div.element").mapChapters(reversed = true) { i, div ->
|
||||||
|
val a = div.selectFirstOrThrow("div.title a")
|
||||||
|
val href = a.attrAsRelativeUrl("href")
|
||||||
|
val dateFormat = SimpleDateFormat("dd/MM/yyyy", sourceLocale)
|
||||||
|
val dateText = div.selectFirstOrThrow("div.meta_r").text().replace("Hier", "1 jour")
|
||||||
|
MangaChapter(
|
||||||
|
id = generateUid(href),
|
||||||
|
name = div.selectFirstOrThrow("div.title").text() + " : " + div.selectFirstOrThrow("div.name").text(),
|
||||||
|
number = i + 1,
|
||||||
|
url = href,
|
||||||
|
uploadDate = parseChapterDate(
|
||||||
|
dateFormat,
|
||||||
|
dateText,
|
||||||
|
),
|
||||||
|
source = source,
|
||||||
|
scanlator = null,
|
||||||
|
branch = null,
|
||||||
|
)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
override suspend fun getPages(chapter: MangaChapter): List<MangaPage> {
|
||||||
|
val fullUrl = chapter.url.toAbsoluteUrl(domain)
|
||||||
|
val doc = webClient.httpGet(fullUrl).parseHtml()
|
||||||
|
return doc.select("div.main-img img").map { url ->
|
||||||
|
val img = url.src()?.toRelativeUrl(domain) ?: url.parseFailed("Image src not found")
|
||||||
|
MangaPage(
|
||||||
|
id = generateUid(img),
|
||||||
|
url = img,
|
||||||
|
preview = null,
|
||||||
|
source = source,
|
||||||
|
)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
private fun parseChapterDate(dateFormat: DateFormat, date: String?): Long {
|
||||||
|
val d = date?.lowercase() ?: return 0
|
||||||
|
return when {
|
||||||
|
d.startsWith("il y a") || // Handle translated 'ago' in French.
|
||||||
|
d.endsWith(" an") || d.endsWith(" ans") ||
|
||||||
|
d.endsWith(" mois") ||
|
||||||
|
d.endsWith(" jour") || d.endsWith(" jours") ||
|
||||||
|
d.endsWith(" heure") || d.endsWith(" heures") ||
|
||||||
|
d.endsWith(" seconde") || d.endsWith(" secondes") ||
|
||||||
|
d.endsWith(" minute") || d.endsWith(" minutes") -> parseRelativeDate(date)
|
||||||
|
|
||||||
|
else -> dateFormat.tryParse(date)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
private fun parseRelativeDate(date: String): Long {
|
||||||
|
val number = Regex("""(\d+)""").find(date)?.value?.toIntOrNull() ?: return 0
|
||||||
|
val cal = Calendar.getInstance()
|
||||||
|
return when {
|
||||||
|
WordSet("seconde", "secondes").anyWordIn(date) -> cal.apply { add(Calendar.SECOND, -number) }.timeInMillis
|
||||||
|
WordSet("minute", "minutes").anyWordIn(date) -> cal.apply { add(Calendar.MINUTE, -number) }.timeInMillis
|
||||||
|
WordSet("heure", "heures").anyWordIn(date) -> cal.apply { add(Calendar.HOUR, -number) }.timeInMillis
|
||||||
|
WordSet("jour", "jours").anyWordIn(date) -> cal.apply { add(Calendar.DAY_OF_MONTH, -number) }.timeInMillis
|
||||||
|
WordSet("mois").anyWordIn(date) -> cal.apply { add(Calendar.MONTH, -number) }.timeInMillis
|
||||||
|
WordSet("an", "ans").anyWordIn(date) -> cal.apply { add(Calendar.YEAR, -number) }.timeInMillis
|
||||||
|
else -> 0
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
@ -0,0 +1,125 @@
|
|||||||
|
package org.koitharu.kotatsu.parsers.site.madara.en
|
||||||
|
|
||||||
|
import org.koitharu.kotatsu.parsers.MangaLoaderContext
|
||||||
|
import org.koitharu.kotatsu.parsers.MangaSourceParser
|
||||||
|
import org.koitharu.kotatsu.parsers.model.Manga
|
||||||
|
import org.koitharu.kotatsu.parsers.model.MangaChapter
|
||||||
|
import org.koitharu.kotatsu.parsers.model.MangaPage
|
||||||
|
import org.koitharu.kotatsu.parsers.model.MangaSource
|
||||||
|
import org.koitharu.kotatsu.parsers.model.MangaTag
|
||||||
|
import org.koitharu.kotatsu.parsers.model.SortOrder
|
||||||
|
import org.koitharu.kotatsu.parsers.site.madara.MadaraParser
|
||||||
|
import org.koitharu.kotatsu.parsers.util.*
|
||||||
|
|
||||||
|
@MangaSourceParser("BESTMANHUACOM", "BestManhua Com", "en")
|
||||||
|
internal class BestManhuaCom(context: MangaLoaderContext) :
|
||||||
|
MadaraParser(context, MangaSource.BESTMANHUACOM, "bestmanhua.com", 20) {
|
||||||
|
override val datePattern = "dd MMMM yyyy"
|
||||||
|
override val tagPrefix = "genres/"
|
||||||
|
override val listUrl = "all-manga/"
|
||||||
|
override val withoutAjax = true
|
||||||
|
override val selectDesc = "div.dsct"
|
||||||
|
override val selectTestAsync = "div.panel-manga-chapter"
|
||||||
|
override val selectDate = "span.chapter-time"
|
||||||
|
override val selectChapter = "li.a-h"
|
||||||
|
override val selectBodyPage = "div.manga-content div.read-content"
|
||||||
|
override val selectPage = "div.image-placeholder"
|
||||||
|
|
||||||
|
override suspend fun getListPage(
|
||||||
|
page: Int,
|
||||||
|
query: String?,
|
||||||
|
tags: Set<MangaTag>?,
|
||||||
|
sortOrder: SortOrder,
|
||||||
|
): List<Manga> {
|
||||||
|
|
||||||
|
val url = buildString {
|
||||||
|
append("https://")
|
||||||
|
append(domain)
|
||||||
|
val pages = page + 1
|
||||||
|
when {
|
||||||
|
!query.isNullOrEmpty() -> {
|
||||||
|
append("/page/")
|
||||||
|
append(pages.toString())
|
||||||
|
append("/?s=")
|
||||||
|
append(query.urlEncoded())
|
||||||
|
append("&post_type=wp-manga&")
|
||||||
|
}
|
||||||
|
|
||||||
|
!tags.isNullOrEmpty() -> {
|
||||||
|
append("/$tagPrefix")
|
||||||
|
for (tag in tags) {
|
||||||
|
append(tag.key)
|
||||||
|
}
|
||||||
|
append("/")
|
||||||
|
append(pages.toString())
|
||||||
|
append("?")
|
||||||
|
}
|
||||||
|
|
||||||
|
else -> {
|
||||||
|
append("/$listUrl")
|
||||||
|
append(pages.toString())
|
||||||
|
append("?")
|
||||||
|
}
|
||||||
|
}
|
||||||
|
append("sort=")
|
||||||
|
when (sortOrder) {
|
||||||
|
SortOrder.POPULARITY -> append("most-viewd")
|
||||||
|
SortOrder.UPDATED -> append("latest-updated")
|
||||||
|
SortOrder.NEWEST -> append("release-date")
|
||||||
|
SortOrder.ALPHABETICAL -> append("name-az")
|
||||||
|
else -> append("latest")
|
||||||
|
}
|
||||||
|
}
|
||||||
|
val doc = webClient.httpGet(url).parseHtml()
|
||||||
|
|
||||||
|
return doc.select("div.page-item").map { div ->
|
||||||
|
val href = div.selectFirst("a")?.attrAsRelativeUrlOrNull("href") ?: div.parseFailed("Link not found")
|
||||||
|
val summary = div.selectFirstOrThrow(".bigor-manga")
|
||||||
|
Manga(
|
||||||
|
id = generateUid(href),
|
||||||
|
url = href,
|
||||||
|
publicUrl = href.toAbsoluteUrl(div.host ?: domain),
|
||||||
|
coverUrl = div.selectFirst("img")?.src().orEmpty(),
|
||||||
|
title = summary.selectFirst("h3")?.text().orEmpty(),
|
||||||
|
altTitle = null,
|
||||||
|
rating = div.selectFirstOrThrow("div.item-rate span").ownText().toFloatOrNull()?.div(5f) ?: -1f,
|
||||||
|
tags = emptySet(),
|
||||||
|
author = null,
|
||||||
|
state = null,
|
||||||
|
source = source,
|
||||||
|
isNsfw = isNsfwSource,
|
||||||
|
)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
override suspend fun getPages(chapter: MangaChapter): List<MangaPage> {
|
||||||
|
val fullUrl = chapter.url.toAbsoluteUrl(domain)
|
||||||
|
val doc = webClient.httpGet(fullUrl).parseHtml()
|
||||||
|
|
||||||
|
val chapterId =
|
||||||
|
doc.selectFirst("script:containsData(chapter_id = )")?.toString()?.substringAfter("chapter_id = ")
|
||||||
|
?.substringBefore(",")
|
||||||
|
|
||||||
|
val json =
|
||||||
|
webClient.httpGet("https://$domain/ajax/image/list/chap/$chapterId?mode=vertical&quality=high").parseJson()
|
||||||
|
|
||||||
|
val html = json.getString("html").split("/div>")
|
||||||
|
|
||||||
|
val pages = ArrayList<MangaPage>()
|
||||||
|
|
||||||
|
html.map { t ->
|
||||||
|
if (t.contains("data-src=")) {
|
||||||
|
val url = t.substringAfter("data-src=\"").substringBefore("\"")
|
||||||
|
pages.add(
|
||||||
|
MangaPage(
|
||||||
|
id = generateUid(url),
|
||||||
|
url = url,
|
||||||
|
preview = null,
|
||||||
|
source = source,
|
||||||
|
),
|
||||||
|
)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
return pages
|
||||||
|
}
|
||||||
|
}
|
||||||
@ -0,0 +1,40 @@
|
|||||||
|
package org.koitharu.kotatsu.parsers.site.madara.es
|
||||||
|
|
||||||
|
import org.koitharu.kotatsu.parsers.MangaLoaderContext
|
||||||
|
import org.koitharu.kotatsu.parsers.MangaSourceParser
|
||||||
|
import org.koitharu.kotatsu.parsers.model.ContentType
|
||||||
|
import org.koitharu.kotatsu.parsers.model.MangaChapter
|
||||||
|
import org.koitharu.kotatsu.parsers.model.MangaPage
|
||||||
|
import org.koitharu.kotatsu.parsers.model.MangaSource
|
||||||
|
import org.koitharu.kotatsu.parsers.site.madara.MadaraParser
|
||||||
|
import org.koitharu.kotatsu.parsers.util.*
|
||||||
|
import java.util.Locale
|
||||||
|
|
||||||
|
@MangaSourceParser("DOUJIN_HENTAI_NET", "Doujin Hentai Net", "es", ContentType.HENTAI)
|
||||||
|
internal class DoujinHentaiNet(context: MangaLoaderContext) :
|
||||||
|
MadaraParser(context, MangaSource.DOUJIN_HENTAI_NET, "doujinhentai.net", 18) {
|
||||||
|
override val datePattern = "dd MMM. yyyy"
|
||||||
|
override val sourceLocale: Locale = Locale.ENGLISH
|
||||||
|
override val listUrl = "lista-manga-hentai/"
|
||||||
|
override val tagPrefix = "lista-manga-hentai/category/"
|
||||||
|
override val selectTestAsync = "div.listing-chapters_wrap"
|
||||||
|
override val selectChapter = "li.wp-manga-chapter:contains(Capitulo)"
|
||||||
|
override val selectPage = "div#all img"
|
||||||
|
|
||||||
|
|
||||||
|
override suspend fun getPages(chapter: MangaChapter): List<MangaPage> {
|
||||||
|
val fullUrl = chapter.url.toAbsoluteUrl(domain)
|
||||||
|
val doc = webClient.httpGet(fullUrl).parseHtml()
|
||||||
|
return doc.select(selectPage).map { div ->
|
||||||
|
val img = div.selectFirstOrThrow("img")
|
||||||
|
val url = img.src()?.toRelativeUrl(domain) ?: div.parseFailed("Image src not found")
|
||||||
|
MangaPage(
|
||||||
|
id = generateUid(url),
|
||||||
|
url = url,
|
||||||
|
preview = null,
|
||||||
|
source = source,
|
||||||
|
)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
}
|
||||||
@ -0,0 +1,15 @@
|
|||||||
|
package org.koitharu.kotatsu.parsers.site.madara.id
|
||||||
|
|
||||||
|
import org.koitharu.kotatsu.parsers.MangaLoaderContext
|
||||||
|
import org.koitharu.kotatsu.parsers.MangaSourceParser
|
||||||
|
import org.koitharu.kotatsu.parsers.model.MangaSource
|
||||||
|
import org.koitharu.kotatsu.parsers.site.madara.MadaraParser
|
||||||
|
|
||||||
|
@MangaSourceParser("GOURMETSCANS_ID", "Gourmet Scans Id", "id")
|
||||||
|
internal class GourmetScansId(context: MangaLoaderContext) :
|
||||||
|
MadaraParser(context, MangaSource.GOURMETSCANS_ID, "id.gourmetscans.net") {
|
||||||
|
|
||||||
|
override val listUrl = "project/"
|
||||||
|
override val tagPrefix = "genre/"
|
||||||
|
override val stylepage = ""
|
||||||
|
}
|
||||||
@ -0,0 +1,13 @@
|
|||||||
|
package org.koitharu.kotatsu.parsers.site.madara.pt
|
||||||
|
|
||||||
|
|
||||||
|
import org.koitharu.kotatsu.parsers.MangaLoaderContext
|
||||||
|
import org.koitharu.kotatsu.parsers.MangaSourceParser
|
||||||
|
import org.koitharu.kotatsu.parsers.model.MangaSource
|
||||||
|
import org.koitharu.kotatsu.parsers.site.madara.MadaraParser
|
||||||
|
|
||||||
|
@MangaSourceParser("WICKEDWITCHSCAN", "WickedWitch Scan", "pt")
|
||||||
|
internal class WickedWitchScan(context: MangaLoaderContext) :
|
||||||
|
MadaraParser(context, MangaSource.WICKEDWITCHSCAN, "wickedwitchscan.com", pageSize = 10) {
|
||||||
|
override val postreq = true
|
||||||
|
}
|
||||||
@ -1,17 +0,0 @@
|
|||||||
package org.koitharu.kotatsu.parsers.site.madara.tr
|
|
||||||
|
|
||||||
|
|
||||||
import org.koitharu.kotatsu.parsers.MangaLoaderContext
|
|
||||||
import org.koitharu.kotatsu.parsers.MangaSourceParser
|
|
||||||
import org.koitharu.kotatsu.parsers.model.MangaSource
|
|
||||||
import org.koitharu.kotatsu.parsers.site.madara.MadaraParser
|
|
||||||
|
|
||||||
|
|
||||||
@MangaSourceParser("MANGABILGINI", "Mangabilgini", "tr")
|
|
||||||
internal class Mangabilgini(context: MangaLoaderContext) :
|
|
||||||
MadaraParser(context, MangaSource.MANGABILGINI, "mangabilgini.com", 44) {
|
|
||||||
|
|
||||||
override val selectDesc = "div.ozet__icerik"
|
|
||||||
override val postreq = true
|
|
||||||
override val datePattern = "d MMMM yyyy"
|
|
||||||
}
|
|
||||||
@ -0,0 +1,10 @@
|
|||||||
|
package org.koitharu.kotatsu.parsers.site.mangareader.en
|
||||||
|
|
||||||
|
import org.koitharu.kotatsu.parsers.MangaLoaderContext
|
||||||
|
import org.koitharu.kotatsu.parsers.MangaSourceParser
|
||||||
|
import org.koitharu.kotatsu.parsers.model.MangaSource
|
||||||
|
import org.koitharu.kotatsu.parsers.site.mangareader.MangaReaderParser
|
||||||
|
|
||||||
|
@MangaSourceParser("PEACESCANS", "PeaceScans", "en")
|
||||||
|
internal class PeaceScans(context: MangaLoaderContext) :
|
||||||
|
MangaReaderParser(context, MangaSource.PEACESCANS, "peacescans.com", pageSize = 14, searchPageSize = 10)
|
||||||
@ -0,0 +1,10 @@
|
|||||||
|
package org.koitharu.kotatsu.parsers.site.mangareader.fr
|
||||||
|
|
||||||
|
import org.koitharu.kotatsu.parsers.MangaLoaderContext
|
||||||
|
import org.koitharu.kotatsu.parsers.MangaSourceParser
|
||||||
|
import org.koitharu.kotatsu.parsers.model.MangaSource
|
||||||
|
import org.koitharu.kotatsu.parsers.site.mangareader.MangaReaderParser
|
||||||
|
|
||||||
|
@MangaSourceParser("PANTHEONSCAN_FR", "Pantheon Scan Fr", "fr")
|
||||||
|
internal class PantheonScanFr(context: MangaLoaderContext) :
|
||||||
|
MangaReaderParser(context, MangaSource.PANTHEONSCAN_FR, "www.pantheon-scan.fr", pageSize = 40, searchPageSize = 10)
|
||||||
@ -0,0 +1,75 @@
|
|||||||
|
package org.koitharu.kotatsu.parsers.site.mangareader.id
|
||||||
|
|
||||||
|
import org.koitharu.kotatsu.parsers.MangaLoaderContext
|
||||||
|
import org.koitharu.kotatsu.parsers.MangaSourceParser
|
||||||
|
import org.koitharu.kotatsu.parsers.model.Manga
|
||||||
|
import org.koitharu.kotatsu.parsers.model.MangaSource
|
||||||
|
import org.koitharu.kotatsu.parsers.model.MangaTag
|
||||||
|
import org.koitharu.kotatsu.parsers.model.SortOrder
|
||||||
|
import org.koitharu.kotatsu.parsers.site.mangareader.MangaReaderParser
|
||||||
|
import org.koitharu.kotatsu.parsers.util.domain
|
||||||
|
import org.koitharu.kotatsu.parsers.util.parseHtml
|
||||||
|
import org.koitharu.kotatsu.parsers.util.urlEncoded
|
||||||
|
|
||||||
|
@MangaSourceParser("KOMIKSAN", "Komik San", "id")
|
||||||
|
internal class KomikSan(context: MangaLoaderContext) :
|
||||||
|
MangaReaderParser(context, MangaSource.KOMIKSAN, "komiksan.link", pageSize = 40, searchPageSize = 10) {
|
||||||
|
|
||||||
|
override val selectMangaListImg = "img.attachment-medium"
|
||||||
|
|
||||||
|
override val listUrl = "/list"
|
||||||
|
override val datePattern = "MMM d, yyyy"
|
||||||
|
|
||||||
|
override suspend fun getListPage(
|
||||||
|
page: Int,
|
||||||
|
query: String?,
|
||||||
|
tags: Set<MangaTag>?,
|
||||||
|
sortOrder: SortOrder,
|
||||||
|
): List<Manga> {
|
||||||
|
if (!query.isNullOrEmpty()) {
|
||||||
|
if (page > lastSearchPage) {
|
||||||
|
return emptyList()
|
||||||
|
}
|
||||||
|
|
||||||
|
val url = buildString {
|
||||||
|
append("https://")
|
||||||
|
append(domain)
|
||||||
|
append("/search?search=")
|
||||||
|
append(query.urlEncoded())
|
||||||
|
append("&page=")
|
||||||
|
append(page)
|
||||||
|
|
||||||
|
}
|
||||||
|
|
||||||
|
val docs = webClient.httpGet(url).parseHtml()
|
||||||
|
lastSearchPage = docs.selectFirst(".pagination .next")
|
||||||
|
?.previousElementSibling()
|
||||||
|
?.text()?.toIntOrNull() ?: 1
|
||||||
|
return parseMangaList(docs)
|
||||||
|
}
|
||||||
|
|
||||||
|
val sortQuery = when (sortOrder) {
|
||||||
|
SortOrder.ALPHABETICAL -> "title"
|
||||||
|
SortOrder.NEWEST -> "latest"
|
||||||
|
SortOrder.POPULARITY -> "popular"
|
||||||
|
SortOrder.UPDATED -> "update"
|
||||||
|
else -> ""
|
||||||
|
}
|
||||||
|
val tagKey = "genre[]".urlEncoded()
|
||||||
|
val tagQuery =
|
||||||
|
if (tags.isNullOrEmpty()) "" else tags.joinToString(separator = "&", prefix = "&") { "$tagKey=${it.key}" }
|
||||||
|
val url = buildString {
|
||||||
|
append("https://")
|
||||||
|
append(domain)
|
||||||
|
append(listUrl)
|
||||||
|
append("/?order=")
|
||||||
|
append(sortQuery)
|
||||||
|
append(tagQuery)
|
||||||
|
append("&page=")
|
||||||
|
append(page)
|
||||||
|
}
|
||||||
|
|
||||||
|
return parseMangaList(webClient.httpGet(url).parseHtml())
|
||||||
|
}
|
||||||
|
|
||||||
|
}
|
||||||
@ -0,0 +1,10 @@
|
|||||||
|
package org.koitharu.kotatsu.parsers.site.mangareader.pt
|
||||||
|
|
||||||
|
import org.koitharu.kotatsu.parsers.MangaLoaderContext
|
||||||
|
import org.koitharu.kotatsu.parsers.MangaSourceParser
|
||||||
|
import org.koitharu.kotatsu.parsers.model.MangaSource
|
||||||
|
import org.koitharu.kotatsu.parsers.site.mangareader.MangaReaderParser
|
||||||
|
|
||||||
|
@MangaSourceParser("SSSSCANLATOR", "SssScanlator", "pt")
|
||||||
|
internal class SssScanlator(context: MangaLoaderContext) :
|
||||||
|
MangaReaderParser(context, MangaSource.SSSSCANLATOR, "sssscanlator.com", pageSize = 20, searchPageSize = 10)
|
||||||
@ -0,0 +1,14 @@
|
|||||||
|
package org.koitharu.kotatsu.parsers.site.mmrcms.fr
|
||||||
|
|
||||||
|
import org.koitharu.kotatsu.parsers.MangaLoaderContext
|
||||||
|
import org.koitharu.kotatsu.parsers.MangaSourceParser
|
||||||
|
import org.koitharu.kotatsu.parsers.model.MangaSource
|
||||||
|
import org.koitharu.kotatsu.parsers.site.mmrcms.MmrcmsParser
|
||||||
|
import java.util.Locale
|
||||||
|
|
||||||
|
@MangaSourceParser("FRSCANSCOM", "FrScansCom", "fr")
|
||||||
|
internal class FrScansCom(context: MangaLoaderContext) :
|
||||||
|
MmrcmsParser(context, MangaSource.FRSCANSCOM, "frscans.com") {
|
||||||
|
|
||||||
|
override val sourceLocale: Locale = Locale.ENGLISH
|
||||||
|
}
|
||||||
@ -0,0 +1,155 @@
|
|||||||
|
package org.koitharu.kotatsu.parsers.site.pt
|
||||||
|
|
||||||
|
import okhttp3.Headers
|
||||||
|
import org.koitharu.kotatsu.parsers.MangaLoaderContext
|
||||||
|
import org.koitharu.kotatsu.parsers.MangaSourceParser
|
||||||
|
import org.koitharu.kotatsu.parsers.PagedMangaParser
|
||||||
|
import org.koitharu.kotatsu.parsers.config.ConfigKey
|
||||||
|
import org.koitharu.kotatsu.parsers.model.*
|
||||||
|
import org.koitharu.kotatsu.parsers.network.UserAgents
|
||||||
|
import org.koitharu.kotatsu.parsers.util.*
|
||||||
|
import java.util.*
|
||||||
|
|
||||||
|
@MangaSourceParser("BAKAI", "Bakai", "pt", ContentType.HENTAI)
|
||||||
|
internal class Bakai(context: MangaLoaderContext) : PagedMangaParser(context, MangaSource.BAKAI, 15) {
|
||||||
|
|
||||||
|
override val sortOrders: Set<SortOrder> = EnumSet.of(SortOrder.UPDATED)
|
||||||
|
|
||||||
|
override val configKeyDomain = ConfigKey.Domain("bakai.org")
|
||||||
|
|
||||||
|
override val headers: Headers = Headers.Builder()
|
||||||
|
.add("User-Agent", UserAgents.CHROME_MOBILE)
|
||||||
|
.build()
|
||||||
|
|
||||||
|
override suspend fun getListPage(
|
||||||
|
page: Int,
|
||||||
|
query: String?,
|
||||||
|
tags: Set<MangaTag>?,
|
||||||
|
sortOrder: SortOrder,
|
||||||
|
): List<Manga> {
|
||||||
|
|
||||||
|
val url = buildString {
|
||||||
|
append("https://")
|
||||||
|
append(domain)
|
||||||
|
|
||||||
|
if (!query.isNullOrEmpty()) {
|
||||||
|
append("/search/?q=")
|
||||||
|
append(query.urlEncoded())
|
||||||
|
append("&quick=1&type=cms_records1&page=")
|
||||||
|
append(page.toString())
|
||||||
|
} else if (!tags.isNullOrEmpty()) {
|
||||||
|
append("/search/?tags=")
|
||||||
|
for (tag in tags) {
|
||||||
|
append(tag.key)
|
||||||
|
append(",")
|
||||||
|
}
|
||||||
|
append("&quick=1&type=cms_records1&page=")
|
||||||
|
append(page.toString())
|
||||||
|
|
||||||
|
} else {
|
||||||
|
append("/hentai/")
|
||||||
|
append("page/")
|
||||||
|
append(page.toString())
|
||||||
|
}
|
||||||
|
}
|
||||||
|
val doc = webClient.httpGet(url).parseHtml()
|
||||||
|
if (!tags.isNullOrEmpty() or !query.isNullOrEmpty()) {
|
||||||
|
|
||||||
|
return doc.select("ol.ipsStream li.ipsStreamItem")
|
||||||
|
.map { div ->
|
||||||
|
val href = div.selectFirstOrThrow("div.ipsStreamItem_snippet a").attrAsAbsoluteUrl("href")
|
||||||
|
Manga(
|
||||||
|
id = generateUid(href),
|
||||||
|
title = div.selectFirstOrThrow("h2.ipsStreamItem_title").text(),
|
||||||
|
altTitle = null,
|
||||||
|
url = href,
|
||||||
|
publicUrl = href.toAbsoluteUrl(domain),
|
||||||
|
rating = RATING_UNKNOWN,
|
||||||
|
isNsfw = true,
|
||||||
|
coverUrl = div.selectFirstOrThrow("span.ipsThumb img").attrAsAbsoluteUrl("src"),
|
||||||
|
tags = setOf(),
|
||||||
|
state = null,
|
||||||
|
author = null,
|
||||||
|
source = source,
|
||||||
|
)
|
||||||
|
}
|
||||||
|
} else {
|
||||||
|
return doc.select("section.ipsType_normal li.ipsGrid_span4")
|
||||||
|
.map { div ->
|
||||||
|
val href = div.selectFirstOrThrow("h2.ipsType_pageTitle a").attrAsRelativeUrl("href")
|
||||||
|
Manga(
|
||||||
|
id = generateUid(href),
|
||||||
|
title = div.selectFirstOrThrow("h2.ipsType_pageTitle").text(),
|
||||||
|
altTitle = null,
|
||||||
|
url = href,
|
||||||
|
publicUrl = href.toAbsoluteUrl(domain),
|
||||||
|
rating = RATING_UNKNOWN,
|
||||||
|
isNsfw = true,
|
||||||
|
coverUrl = div.selectFirstOrThrow("img").attrAsAbsoluteUrl("src"),
|
||||||
|
tags = setOf(),
|
||||||
|
state = null,
|
||||||
|
author = null,
|
||||||
|
source = source,
|
||||||
|
)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
override suspend fun getTags(): Set<MangaTag> {
|
||||||
|
val doc = webClient.httpGet("https://$domain").parseHtml()
|
||||||
|
return doc.requireElementById("elNavigation_17_menu").select("li.ipsMenu_item a").mapNotNullToSet { a ->
|
||||||
|
|
||||||
|
MangaTag(
|
||||||
|
key = a.attr("href").removeSuffix('/').substringAfterLast('/'),
|
||||||
|
title = a.text(),
|
||||||
|
source = source,
|
||||||
|
)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
override suspend fun getDetails(manga: Manga): Manga {
|
||||||
|
val root =
|
||||||
|
webClient.httpGet(manga.url.toAbsoluteUrl(domain)).parseHtml().selectFirstOrThrow("article.ipsContained")
|
||||||
|
return manga.copy(
|
||||||
|
altTitle = null,
|
||||||
|
state = null,
|
||||||
|
tags = root.select("p:contains(Tags:) span span")[1].text().split(",").mapNotNullToSet { a ->
|
||||||
|
val tag = a.replace(" ", "")
|
||||||
|
MangaTag(
|
||||||
|
key = tag,
|
||||||
|
title = tag,
|
||||||
|
source = source,
|
||||||
|
)
|
||||||
|
},
|
||||||
|
author = root.selectFirstOrThrow("p:contains(Artista:) span a").text(),
|
||||||
|
description = root.selectFirstOrThrow("section.ipsType_richText").html(),
|
||||||
|
chapters = listOf(
|
||||||
|
MangaChapter(
|
||||||
|
id = manga.id,
|
||||||
|
name = manga.title,
|
||||||
|
number = 1,
|
||||||
|
url = manga.url,
|
||||||
|
scanlator = null,
|
||||||
|
uploadDate = 0,
|
||||||
|
branch = null,
|
||||||
|
source = source,
|
||||||
|
),
|
||||||
|
),
|
||||||
|
)
|
||||||
|
}
|
||||||
|
|
||||||
|
override suspend fun getPages(chapter: MangaChapter): List<MangaPage> {
|
||||||
|
val fullUrl = chapter.url.toAbsoluteUrl(domain)
|
||||||
|
val doc = webClient.httpGet(fullUrl).parseHtml()
|
||||||
|
val root = doc.body().selectFirstOrThrow("div.pular")
|
||||||
|
return root.select("img").map { img ->
|
||||||
|
val url = img.src()?.toRelativeUrl(domain) ?: img.parseFailed("Image src not found")
|
||||||
|
MangaPage(
|
||||||
|
id = generateUid(url),
|
||||||
|
url = url,
|
||||||
|
preview = null,
|
||||||
|
source = source,
|
||||||
|
)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
@ -0,0 +1,143 @@
|
|||||||
|
package org.koitharu.kotatsu.parsers.site.pt
|
||||||
|
|
||||||
|
import okhttp3.Headers
|
||||||
|
import org.koitharu.kotatsu.parsers.MangaLoaderContext
|
||||||
|
import org.koitharu.kotatsu.parsers.MangaSourceParser
|
||||||
|
import org.koitharu.kotatsu.parsers.PagedMangaParser
|
||||||
|
import org.koitharu.kotatsu.parsers.config.ConfigKey
|
||||||
|
import org.koitharu.kotatsu.parsers.model.*
|
||||||
|
import org.koitharu.kotatsu.parsers.network.UserAgents
|
||||||
|
import org.koitharu.kotatsu.parsers.util.*
|
||||||
|
import java.text.SimpleDateFormat
|
||||||
|
import java.util.*
|
||||||
|
|
||||||
|
@MangaSourceParser("GOLDENMANGA", "Golden Manga", "pt")
|
||||||
|
internal class GoldenManga(context: MangaLoaderContext) : PagedMangaParser(context, MangaSource.GOLDENMANGA, 36) {
|
||||||
|
|
||||||
|
override val sortOrders: Set<SortOrder> = EnumSet.of(SortOrder.ALPHABETICAL)
|
||||||
|
|
||||||
|
override val configKeyDomain = ConfigKey.Domain("goldenmanga.top")
|
||||||
|
|
||||||
|
override val headers: Headers = Headers.Builder()
|
||||||
|
.add("User-Agent", UserAgents.CHROME_DESKTOP)
|
||||||
|
.build()
|
||||||
|
|
||||||
|
|
||||||
|
override suspend fun getListPage(
|
||||||
|
page: Int,
|
||||||
|
query: String?,
|
||||||
|
tags: Set<MangaTag>?,
|
||||||
|
sortOrder: SortOrder,
|
||||||
|
): List<Manga> {
|
||||||
|
|
||||||
|
val url = buildString {
|
||||||
|
append("https://")
|
||||||
|
append(domain)
|
||||||
|
append("/mangas")
|
||||||
|
append("?pagina=")
|
||||||
|
append(page.toString())
|
||||||
|
|
||||||
|
if (!query.isNullOrEmpty()) {
|
||||||
|
append("&search=")
|
||||||
|
append(query.urlEncoded())
|
||||||
|
}
|
||||||
|
|
||||||
|
if (!tags.isNullOrEmpty()) {
|
||||||
|
append("&genero=")
|
||||||
|
for (tag in tags) {
|
||||||
|
append(tag.key)
|
||||||
|
append(",")
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
val doc = webClient.httpGet(url).parseHtml()
|
||||||
|
return doc.select("section.row div.mangas")
|
||||||
|
.map { div ->
|
||||||
|
val href = div.selectFirstOrThrow("a").attrAsAbsoluteUrl("href")
|
||||||
|
Manga(
|
||||||
|
id = generateUid(href),
|
||||||
|
title = div.selectFirstOrThrow("a h3").text(),
|
||||||
|
altTitle = null,
|
||||||
|
url = href,
|
||||||
|
publicUrl = href.toAbsoluteUrl(domain),
|
||||||
|
rating = RATING_UNKNOWN,
|
||||||
|
isNsfw = div.selectFirst("div.MangaAdulto") != null,
|
||||||
|
coverUrl = div.selectFirstOrThrow("img").attrAsAbsoluteUrl("src"),
|
||||||
|
tags = setOf(),
|
||||||
|
state = null,
|
||||||
|
author = null,
|
||||||
|
source = source,
|
||||||
|
)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
override suspend fun getTags(): Set<MangaTag> {
|
||||||
|
val doc = webClient.httpGet("https://$domain/mangas").parseHtml()
|
||||||
|
return doc.select("div.container a.btn.btn-warning ").mapNotNullToSet { a ->
|
||||||
|
MangaTag(
|
||||||
|
key = a.attr("href").substringAfterLast("="),
|
||||||
|
title = a.text(),
|
||||||
|
source = source,
|
||||||
|
)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
override suspend fun getDetails(manga: Manga): Manga {
|
||||||
|
val root = webClient.httpGet(manga.url.toAbsoluteUrl(domain)).parseHtml()
|
||||||
|
val dateFormat = SimpleDateFormat("(dd/MM/yyyy)", Locale.ENGLISH)
|
||||||
|
return manga.copy(
|
||||||
|
altTitle = null,
|
||||||
|
state = when (root.select("h5.cg_color")[3].select("a").text()) {
|
||||||
|
"ativo", "Ativo" -> MangaState.ONGOING
|
||||||
|
"Completo" -> MangaState.FINISHED
|
||||||
|
else -> null
|
||||||
|
},
|
||||||
|
tags = root.select("h5.cg_color")[0].select("a").mapNotNullToSet { a ->
|
||||||
|
|
||||||
|
if (a.text().isNullOrEmpty()) {
|
||||||
|
return@mapNotNullToSet null
|
||||||
|
} else {
|
||||||
|
MangaTag(
|
||||||
|
key = a.attr("href").substringAfterLast("="),
|
||||||
|
title = a.text().toTitleCase(),
|
||||||
|
source = source,
|
||||||
|
)
|
||||||
|
}
|
||||||
|
},
|
||||||
|
author = root.select("h5.cg_color a")[1].text(),
|
||||||
|
description = root.getElementById("manga_capitulo_descricao")?.html(),
|
||||||
|
chapters = root.requireElementById("capitulos").select("li")
|
||||||
|
|
||||||
|
.mapChapters(reversed = true) { i, div ->
|
||||||
|
val href = div.selectFirstOrThrow("a").attrAsRelativeUrl("href")
|
||||||
|
val dateText = div.selectFirstOrThrow("div.col-sm-5 span").text()
|
||||||
|
val name = div.selectFirstOrThrow("div.col-sm-5").text().substringBeforeLast("(")
|
||||||
|
MangaChapter(
|
||||||
|
id = generateUid(href),
|
||||||
|
name = name,
|
||||||
|
number = i,
|
||||||
|
url = href,
|
||||||
|
scanlator = null,
|
||||||
|
uploadDate = dateFormat.tryParse(dateText),
|
||||||
|
branch = null,
|
||||||
|
source = source,
|
||||||
|
)
|
||||||
|
},
|
||||||
|
)
|
||||||
|
}
|
||||||
|
|
||||||
|
override suspend fun getPages(chapter: MangaChapter): List<MangaPage> {
|
||||||
|
val fullUrl = chapter.url.toAbsoluteUrl(domain)
|
||||||
|
val doc = webClient.httpGet(fullUrl).parseHtml()
|
||||||
|
val root = doc.body().requireElementById("capitulos_images")
|
||||||
|
return root.select("img").map { img ->
|
||||||
|
val url = img.src()?.toRelativeUrl(domain) ?: img.parseFailed("Image src not found")
|
||||||
|
MangaPage(
|
||||||
|
id = generateUid(url),
|
||||||
|
url = url,
|
||||||
|
preview = null,
|
||||||
|
source = source,
|
||||||
|
)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
Loading…
Reference in New Issue