Ce ne est pas un secret que la vie du réseau social VKontakte très actif et plein de nombreux événements. Amis, Communauté, leur propre situation et de tout le spam submergés mur presque tous les utilisateurs, bon gré mal gré, la faisant ressembler à une poubelle est pleine. Comment nettoyer un mur en contact, une fois pour toutes se débarrasser de choses supplémentaire? Personnes en ligne artisans généralement utilisés de différentes manières pour résoudre ce problème.
Immédiatement, il est intéressant de noter que les développeurs OpenID murs de nettoyage complets pour une raison quelconque ne est pas disponible, et seulement autorisé à supprimer les messages séparément. Mais cet inconvénient est compensé entièrement différents programmes disponibles sur le web. Avec des scripts spéciaux peuvent être facilement et rapidement nettoyer le mur de tous les messages ensemble. Par exemple, Mozilla Firefox, il est un utilitaire supplémentaire tout-mon-clé, qui peut être téléchargé directement sur le navigateur du site. Une autre solution polyvalente pour ne importe quelle tâche OpenID est un vkbot du programme, il se étend le site vkbot.ru.
Cependant, une autre question, comment est appropriée l'utilisation de ces applications. Premièrement, nous ne devons pas oublier que les règles ne permettent pas l'utilisation de ne importe quel type OpenID était pas son exécution. Deuxièmement, il est important de se rappeler de la sécurité tout en travaillant avec les programmes. Par conséquent, la façon la plus logique et fiable pour nettoyer une paroi en contact, il était encore supprimer des messages manuellement. Assurez-il facile - juste besoin planer le coin supérieur droit du message et cliquez sur la croix.
La meilleure façon de nettoyer les murs en contact - supprimer les messages manuellement.
Et ceux qui mur activement trop bouché Spam différents, vous pouvez simplifier la tâche de nettoyage, le réglage des paramètres requis dans le même réseau social. Accéder à Mes Paramètres, sélectionnez la politique de confidentialité et dans "Qui peut enregistrer sur mon mur», sélectionnez «Moi uniquement». Maintenant sur le OpenID murale apparaître que vos dossiers et vous pouvez facilement les enlever si nécessaire.
Comme mentionné précédemment, la mémoire vive statique a été appliquée en
cachette
. Le principal avantage de mémoire statique - est sa vitesse. Le principal inconvénient - un grand volume mémoire occupée physique et la consommation de puissance élevée.
Rappelons que la cellule de mémoire statique sur la base de étages à transistors, qui peut contenir jusqu'à 10 transistors. Depuis le transistor de commutation d'un état à un autre est négligeable, alors la vitesse de la mémoire statique élevée.
La mémoire cache est une petite quantité et est placé directement sur la puce du processeur. Sa vitesse est beaucoup plus élevé que dans la mémoire dynamique (RAM) de modules, mais inférieur sont des registres à usage général (Ron) CPU.
Pour la première fois sur le cache était 386 ordinateurs et est situé sur la carte mère. Carte mère 386 DX avait la capacité de la mémoire cache de 64 à 256 Ko. 486e processeurs ont déjà cache situé sur la puce du processeur, mais le cache sur la carte mère a bien été enregistré. Le cache du système est devenu une mémoire à deux niveaux, sur puce est devenue connue
mémoire cache de premier niveau
(L1), et sur la carte mère -
cache de second niveau
(L2). Au fil du temps, le cache de second niveau "déplacé" processeur sur puce. Le premier fit processeur AMD K6-III (L1 = 64 Kb, L2 = 256 Kb).
La présence de deux niveaux de cache requiert l'établissement d'un mécanisme de leur interaction les uns avec les autres. Il ya deux options pour l'échange d'informations entre la mémoire cache de premier et de deuxième niveau, ou comme on dit, deux architecture de cache: inclusive et exclusive.
Cache Inclusive
L'architecture inclusive passe par la duplication des informations stockées en L1 et L2.
Le système fonctionne comme suit. Lors de la copie des données de la mémoire cache de RAM est deux copies, une copie est stockée en L2, une autre copie - en L1. Lorsque L1 est complètement rempli, l'information est remplacé par le principe de la suppression la plus "anciennes données» -
LRU
(Least Recently Used-). Arrive même avec le cache de second niveau, mais parce que le montant de plus, et il est maintenu plus longtemps.
Lors de la lecture d'informations à partir de la mémoire cache du processeur, il est pris à partir de L1. Si les informations requises dans le cache du premier niveau là, il est recherché dans L2. Si vous avez besoin d'informations dans le cache de second niveau se trouve, il est dupliqué en L1 (le principe LRU), puis transmis au processeur. Si vous avez besoin d'informations ne trouve pas dans le cache et le deuxième niveau, il est lu de la RAM le schéma décrit ci-dessus.
Architecture inclusion est utilisée dans les systèmes où la différence dans le cache de premier et second volumes niveau élevé. Par exemple, le Pentium 3 (Coppermine): L1 = 16 Ko, L2 = 256 Kb; Pentium 4: L1 = 16 Ko, L2 = 1,024 Kb. Dans de tels systèmes, dupliqué petite partie de cache de second niveau, ce est le prix tout à fait raisonnable pour la facilité d'un mécanisme inclusif.
Cache exclusive
Cache exclusive implique information unique stockée dans L1 et L2.
Lors de la lecture des données de la mémoire dans le cache - informations entré immédiatement en L1. Lorsque L1 est plein, alors les informations LRU principe est transféré de L1 à L2.
Si vous lisez le traitement de l'information avec L1 information désirée est trouvée, il est recherché en L2. Si vous avez besoin d'informations trouvées dans L2, puis le cache LRU principe premier et deuxième niveaux partagez lignes (ligne les plus "vieux" de L1 placés en L2, et à sa place qui est écrit sur la ligne L2). Si vous avez besoin d'informations non trouvé et L2, ce est un appel au régime de RAM décrit ci-dessus.
Architecture exclusif est utilisé dans des systèmes où la différence entre le premier et le second niveau de cache est relativement faible. Par exemple, Athlon XP: L1 = 64 Kb, L2 = 256 Kb. Dans une architecture de cache exclusive utilisée plus efficacement, mais le schéma d'un mécanisme exclusif est beaucoup plus difficile.
Interaction cache RAM
Etant donné que le cache est très rapide, il est placé dans les informations de mémoire cache, qui est souvent appelé processeur - ce qui accélère le travail. L'information dans la mémoire vive est placée dans le cache, puis il se processeur. Il existe plusieurs systèmes d'interaction entre cache et de la mémoire principale.
La mémoire cache avec la cartographie directe.
La version la plus simple de l'interaction de cache RAM. RAM est divisé en segments (pages), le niveau du volume de cache ensemble de volume (par exemple, le volume 64 Ko de cache et de la mémoire est divisé en pages de 64 Ko). L'interaction de cache RAM, une page est placée dans le cache de RAM, à partir de l'adresse zéro (ce est à dire, à partir du cache début). À l'interaction de réintervention, la page suivante est superposée sur une existante - ce est, en fait, les anciennes données est remplacé par le courant.
Avantages:
Facile comité de l'Organisation, un minimum de recherche.
Inconvénients:
utilisation inefficace de l'ensemble du volume de la mémoire cache - il ne est pas nécessaire que les données seront occuper tout le volume de la mémoire cache, ils peuvent prendre et 10%, mais le prochain morceau de données élimine la précédente, de sorte que nous effectivement cache volume beaucoup plus petit.
Numérotation associatif cache.
Tout le volume de la mémoire cache est divisée en plusieurs segments égaux, dviytsi multiples dans l'ensemble de mesure (2, 4, 8). Par exemple, 64 Ko de cache peut être divisé en:
Segment 2 de 32 Ko chacun;
Segment 4-16 Ko chacun;
8 segments et 8 Ko chacune.
Pentium 3 et 4 sont la structure 8 canaux cache (cache est divisé en huit segments); Athlon Thunderbird --canal 16.
Dans un tel agencement, la RAM est divisé en niveau de la page en termes d'un cache de segment (une banque de cache). Page RAM est écrit à la première banque de cache; page suivante - dans la deuxième banque de cache et ainsi de suite, jusqu'à ce que toutes les banques de cache sont remplis. En outre dossier d'information est mis en cache à la banque, qui n'a pas été utilisé le plus long (y compris la plupart des informations "vieux").
Avantages:
augmente l'efficacité de la taille du cache entière - les grandes banques de la mémoire cache (au-dessus de l'associativité), plus l'efficacité.
Inconvénients:
une gestion plus complexe du cache; un délai supplémentaire pour analyser les informations.
Cache associatif.
Ce cas limite de l'option précédente, lorsque le volume de la banque de cache est égale à une ligne de cache (la part est nulle part). Ainsi, toute ligne de RAM peuvent être stockées dans ne importe quel emplacement de la mémoire cache.
matrice de stockage de la mémoire cache se compose de lignes de longueur égale. La capacité de cette ligne est égale à la taille de l'emballage schytыvaemoho de RAM 1 cycle (par exemple, Pentium 3 à 32 octets; Pentium 4 à 64 octets). La ligne est chargé dans la mémoire cache et seulement entièrement extrait.
Avantages:
l'efficacité maximale de l'espace de la mémoire cache.
Inconvénients:
plus grande perte de temps à rechercher des informations.