Polskie wsparcie PrestaShop
PrestaShop => Instalacja => Wątek zaczęty przez: karo11 w Lipiec 31, 2014, 10:05:58 am
-
Po wyeksportowaniu bazy z działającego sklepu 1.4.4.1 próbuję ją zaimportować do bazy na localhosta. Za każdym razem otrzymuję informację o błędzie jak poniżej. Jestem laikiem proszę o pomoc jak naprawić bazę ?
Błąd
SQL query:
--
-- Zrzut danych tabeli `ps_search_word`
--
MySQL zwrócił komunikat: Dokumentacja
#1062 - Duplicate entry '4-daß' for key 'id_lang'
INSERT INTO `ps_search_word` (`id_word`, `id_lang`, `word`) VALUES
(5, 1, '16gb'),
(1555, 1, '8gb'),
(14, 1, 'about'),
(53, 1, 'accelerometer'),
(11, 1, 'ahead'),
(26, 1, 'allaluminum'),
(18, 1, 'amazing'),
(3298, 1, 'aroniowy'),
(9, 1, 'before'),
(2299, 1, 'boczek'),
(1562, 1, 'brains'),
(1559, 1, 'but'),
(2528, 1, 'cebula'),
(3194, 1, 'chleb'),
(19, 1, 'colors'),
(54, 1, 'comes'),
(61, 1, 'cover'),
(42, 1, 'creates'),
(12, 1, 'curve'),
(10, 1, 'curved'),
(3, 1, 'design'),
(65, 1, 'designed'),
(1968, 1, 'dni'),
(2850, 1, 'domowy'),
(30, 1, 'down'),
(3213, 1, 'duży'),
(3238, 1, 'dyniowy'),
(35, 1, 'feature'),
(4, 1, 'features'),
(24, 1, 'feel'),
(44, 1, 'finding'),
(62, 1, 'flow'),
(1556, 1, 'for'),
(64, 1, 'games'),
(34, 1, 'genius'),
(16, 1, 'give'),
(27, 1, 'glass'),
(31, 1, 'great'),
(2559, 1, 'gryczana'),
(39, 1, 'highly'),
(2626, 1, 'home'),
(1565, 1, 'intelligent'),
(37, 1, 'into'),
(1, 1, 'ipod'),
(2530, 1, 'jęczmienna'),
(2442, [...]
-
skasuj wszystkie dane z tej tabeli zostaw tylko kod tworzący. To taki standard z tymi danymi.....
-
skasuj wszystkie dane z tej tabeli zostaw tylko kod tworzący. To taki standard z tymi danymi.....
Czy mam skasować dane w oryginalnej tabeli `ps_search_word`z działającego sklepu przed eksportem bazy ? Dane w tej tabeli są nieistotne ? Czy dobrze rozumiem ?
-
tak możesz tak zrobic pamietaj aby później zaindeksować ponownie wyszukiwarkę w sklepie
-
tak możesz tak zrobic pamietaj aby później zaindeksować ponownie wyszukiwarkę w sklepie
Bardzo dziękuję - pomogło :)
-
Ewentualnie zawsze przed eksportem powinno się zoptymalizować tabele. Wtedy tego typu problemy nie powinny występować.